Principales Cambios Científicos

Los Sucesos mas importantes del Siglo XX:Guerras Mundiales,Descolonizacion

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la “gran guerra”, como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra.

Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la “madre Rusia” durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó “gran Guerra Patriótica”. (picar en la foto para mas información)

 

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal.

Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

 

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

 

Avances Cientificos Despues de la Guerra Television Color TV Color

La televisión en colores es uno de, los astros domésticos más jóvenes de la era electrónica. Y, a pesar de haberse vendido inicialmente a precios astronómicos, ese nuevo juguete va, poco a poco, penetrando en las casas de los estratos medios. No obstante, la calidad técnica de esas transmisiones aún no ha alcanzado un punto “óptimo” de realización tecnológica, y los costos de producción continúan siendo bastante elevados, lo que impide que ella ocupe definitivamente el lugar conquistado por su rival en blanco y negro. Al respecto, investigaciones recientes estudian la posibilidad de substituir f/ tubo de la TV en colores —que representa cerca del 50 al 60 % del costo del aparato— por un sistema menos costoso, como pantallas “planas” o el cristal líquido, usado ya en calculadoras de bolsillo y relojes electrónicos.

Los Primeros Pasos….La Televisión
La idea de utilizar ondas de radio para transportar información visual se remonta a los primeros tiempos de la radio, pero no llegó a ser factible hasta 1926. El principio básico es fragmentar la imagen en una serie de puntos que entonces se transmiten y muestran en una pantalla tan rápidamente que el ojo humano los percibe como una imagen completa.

En 1926 el inventor escocés John Logie Baird (1888-1946) mostró una televisión basada en el método mecánico de repasar una imagen en líneas de puntos de luz. De todas formas, el sistema de Baird tenía poco futuro y fue rápidamente sustituido por un sistema totalmente electrónico. Este último fue desarrollado por Vladimir Zworykin (1889-1982), ingeniero de origen ruso pero que trabajaba en EUA. Su primera cámara útil, hecha en 1931, enfocó la imagen sobre un mosaico de células fotoeléctricas (ver p. 36-37). El voltaje inducido en cada célula fue una medida de la intensidad de luz en este punto, y podía transmitirse como una señal. Una cámara de televisión moderna opera esencialmente de la misma manera, midiendo la intensidad de luz en cada punto de la imagen. Esta información se codifica y transmite entonces en la onda de radio.

En el extremo receptor, la señal tiene que ser decodificada. Un televisor es básicamente un tubo de rayos catódicos, en el cual un “cañón” dispara un haz de electrones hacia una pantalla luminescente. Cuando chocan con ella, la pantalla se ilumina. Para reconstruir la imagen en su totalidad, el haz se mueve de lado a lado en una serie de líneas (625) en los televisores, cubriendo toda la pantalla en 1/25 segundos.

Historia Evolución Tecnológica Post Guerra Mundial
LA TELEVISIÓN COLOR: Los principios de la moderna televisión electrónica estaban bien establecidos hacia mediados de los años 30, época en que tanto en EE.UU. como en Gran Bretaña se realizaban transmisiones regulares, aunque para una audiencia relativamente reducida. La definición era mala, la imagen era titilante y las técnicas de realización eran primitivas, pero aun así se ofrecía un servicio aceptable. Los adelantos en este campo quedaron bruscamente detenidos por el estallido de la guerra en Europa.

Una vez finalizado el conflicto, las investigaciones continuaron más o menos desde el punto donde habían quedado en 1939. La calidad mejoró considerablemente gracias a la aplicación de algunos adelantos en electrónica logrados durante la guerra, pero uno de los rasgos básicos seguía inalterado: la imagen era en blanco y negro.

No había en realidad dificultades técnicas, ya que los problemas de la televisión en color son básicamente los mismos que los de la fotografía en color, que se habían superado mucho tiempo antes. En esencia, la imagen transmitida debía separarse en tres imágenes, una roja, otra verde y una tercera azul, que luego se reproducirían, superpuestas, en la pantalla del receptor.

De manera bastante sorprendente, teniendo en cuenta la determinación con que se abandonaron los sistemas fotomecánicos de televisión en los años 30, el primer sistema adoptado (diseñado por Peter Goldmark en 1951, en Estados Unidos) consistía en un disco giratorio con filtros de color, colocado delante del objetivo de la cámara. Sin embargo, en 1953, la compañía RCA perfeccionó un sistema completamente electrónico por el cual, el rayo de luz transmitido a través del objetivo de la cámara se divide en sus componentes rojo, verde y azul mediante espejos selectores del color. Las tres imágenes se transforman entonces en una señal que se transmite en dos modalidades. La primera, denominada luminancia, depende del brillo de la imagen.

La segunda, llamada crominancia, está relacionada con el color. En el receptor, la señal de crominanciaes recibida por tres cañones de electrones cuyos rayos barren la pantalla, activando un gran número de puntos fosforogénicos que producen una luminosidad roja, verde o azul. Como los sistemas de luminancia y crominancia están separados, las transmisiones de televisión en color pueden ser recibidas también por receptores de blanco y negro.

En 1960, la televisión ya no era una novedad en el mundo occidental y el televisor se había convertido en un elemento corriente entre los aparatos domésticos. El número de receptores ascendía para entonces a unos 100 millones, el 85 % de los cuales se encontraban en Estados Unidos.

En 1970, la cifra había aumentado a más del doble, con unos 230 millones de aparatos. A principios de los años 80, los televisores en color habían desplazado a los aparatos de blanco y negro. Para entonces, había en casi todos los hogares de Estados Unidos (98 %) por lo menos un televisor, que era en color en el 80 % de los casos.

Estas cifras se refieren. naturalmente, a los receptores domésticos y no tienen en cuenta los numerosos sistemas de televisión muchos de circuito cerrado) utilizados con fines especiales: por ejemplo, dispositivos antirrobo en los comercios, demostraciones de operaciones quirúrgicas a estudiantes y observaciones de la superficie terrestre desde satélites.

PARA SABER MAS SOBRE LOS COMIENZOS DE LA TELEVISIÓN:

En 1925, el año en que el inventor escocés John Logie Baird se convirtió en la primera persona que transmitió imágenes en movimiento a un receptor lejano, solo un puñado de ingenieros y hombres de negocios de amplios horizontes habían oído hablar de la nueva tecnología que iba a transformar la cultura.

No obstante, entre estos primeros visionarios el desarrollo de la televisión todavía estaba en estado embrionario. Trabajando en el laboratorio casero de su ático londinense, Baird, desconocido y pobre, construyó una cámara que registraba los objetos con un haz concentrado de luz. Utilizó una célula fotoeléctrica para convertir la luz y la sombra del objeto registrado en electricidad y fabricó un receptor que realizaba el proceso inverso.

El 2 de octubre registró la cabeza de un muñeco y observó con alegría que su cara se reproducía temblorosa en la pantalla que había colocado en la habitación contigua. Corriendo hacia un edificio del otro lado de la calle, le pidió a un portero que se sentara frente a su cámara. El joven William Taynton fue la primera persona televisada.

El sistema de Baird consistía en un aparato mecánico rudimentario que utilizaba discos con agujeros para registrar el objeto, deshacer la luz en rayos y convertir los en una imagen proyectable del objeto original. Funcionaba, pero las temblorosas imágenes provocaban dolor de cabeza al espectador.

Mientras Baird trataba de mejorar su modelo mecánico, otros pioneros trabajaban en sistemas electrónicos. La televisión electrónica ya había sido tratada en teoría por el físico británico Campbell Swinton en 1908. Swinton escribió: «Debe descubrirse algo apropiado. Creo que la visión eléctrica a distancia entra en el reino de lo posible».

Los descubrimientos a los que aludía fueron realizados por Vladimir Kosma Zworykin y Philo T. Farnsworth. El físico norteamericano nacido en Rusia y el estudiante de Utah desarrollaron las primeras lámparas de imágenes. En 1927, Farnsworth presentó un sistema sin los discos de Nipkow en los que confiaba Baird. Con la invención de Farnsworth, el reino de lo posible ya era probable.

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la Termodinámica Modelo Atómico de Bohr Cinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir “salvar los fenómenos” estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

“Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.”

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el “spin“, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son “permitidas” mientras que otras “permanecen prohibidas”.

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

Historia del Transistor Primeras Aplicaciones Inventores

Los extraordinarios progresos experimentados en el campo científico repercutieron en el terreno de la tecnología con inventos que, en algunos aspectos, han ido transformando la vida del ser humano. Una diminuta lámina de cristal de germanio, con dos electrodos puntiformes, que integran un transistor, se constituyó en un verdadero corazón de múltiples aparatos, desde pequeñísimas prótesis para sordos, hasta los que rigen la vida de los satélites. Tres eminentes investigadores: John Bordeen -premio Nobel-, Walter Brattain y William Shackley, dieron nacimiento al transistor, que por su reducido tamaño, su bajo precio y su economía, ha resultado insustituible en los sistemas de telecomunicaciones, tele-mediciones, etc.

Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental. Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos. Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado. En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Entre todos los avances e inventos de la postguerra podría mencionarse en el campo de la electrónica,  uno de los descubrimientos que revolucionó al mundo, constituido, en un principio, por una diminuta lámina de cristal de germanio, con dos electrodos metálicos puntiformes, uno de ellos polarizado en sentido directo, emisor, y otro en sentido inverso, colector. Este diminuto artefacto, si así se lo puede llamar, no es nada menos que un transistor primitivo, que ha sido reemplazado por otro perfeccionado llamado transistor, adoptado universalmente.

Hace algo más que un cuarto de siglo, el 23 de diciembre de 1947, tres eminentes investigadores crearon el transistor. John Bardeen, dos veces premio Nobel por sus contribuciones sobre física teórica; Walter Brattain, especialista en superficies sólidas, y William Shockley, que ya se había destacado por sus trabajos en electrónica, dieron nacimiento al transistor.

Bardeen, Shockley y Brattain, inventores del transistor

Y uno de los primeros empleos, que asombró a todos sin excepción, fue el de las radios, que desde ese momento pudieron funcionar en diminutos aparatos sin necesidad de la corriente eléctrica. Como amplificador de señales de amplitud variable, el transistor sustituyó bien pronto, con extraordinarias ventajas, a la válvulas electrónicas.

En muy poco tiempo, el transistor fue invadiendo todas las actividades en que, por su uso, podía sustituir a los tubos electrónicos, por su tamaño reducido, su bajo costo, su fácil manejo. Además, su fabricación en serie ha puesto a disposición del mercado mundial transistores en una’ abundancia asombrosa. Basta decir que, en un solo año; Estados Unidos logró vender a Europa y al Japón más de nueve mil millones de transistores. Desde la guitarra eléctrica hasta las pequeñísimas prótesis que los sordos introducen en sus oídos para escuchar los sonidos, hasta los marcapasos y las extraordinarias telecámaras de las cápsulas espaciales, computadores y satélites funcionan ya a transistores. Representa el verdadero corazón de todos estos artefactos, desde el más pequeño hasta el más grande.

Para poder dimensionar el valor en toda su magnitud de este descubrimiento, es necesario aclarar que es fundamental la diferencia entre la electricidad y la electrónica; Mientras la primera se vale de electrones —esas partículas infinitesimales que gravitan alrededor del núcleo del átomo de una manera masiva— la electrónica entra en el detalle. Es decir, de electrones por grupos pequeños, a veces de a uno. Antes de la guerra, para gobernar estos flujos electrónicos tan ínfimos existía un solo dispositivo, la lámpara de radio inventada por Lee De Forest, en 1906.

Los cristales de silicio y germanio, cuyas estructuras son similares a la del diamante, permitieron la creación del transistor. En estos materiales, cada electrón está como prisionero en una determinada posición, y no puede moverse. Sin embargo, una vez liberado, se halla en condiciones de atravesar el sólido y convertirse en transportador. Además, los cristales de silicio y germanio ofrecen la posibilidad de que el electrón liberado deja un “agujero” en la posición que antes ocupaba. Este vacío se comporta exactamente igual que una carga positiva, y está en condiciones de trasladarse de un átomo al otro. De esta manera, los electrones funcionan como cargas negativas y los “agujeros” como positivas.

El secreto del transistor consiste en que, una vez obtenido el materia] muy puro, se lo convierte en conductor, introduciendo la necesaria cantidad de impurezas en los lugares precisos.

Los transistores fueron reemplazando progresivamente a las válvulas, y en todos aquellos aparatos, dispositivos e instrumentos en que se empleaban éstas, se sustituyen por aquéllos. Así, con las notables ventajas que reportaron se introdujeron en todos los sistemas de telecomunicaciones, telemediciones, telecomandos y teleseñalizacíones. Las radios, la televisión, las calculadoras electrónicas, los oscilógrafos, los voltímetros, los distintos instrumentos que se utilizan en el amplio campo de medicina para controlar las intervenciones quirúrgicas, etc. No se considera que un aparato es moderno, si no ha sido transistorizado, porque representa extraordinarias ventajas en su uso, sus resultados, su manipuleo y en su economía.

El ingenio humano, que no se detiene ni siquiera ante obstáculos que a veces parecen insalvables, ha tratado siempre de ahorrar tiempo, lo que representa dinero, y simplificar las tareas, hacerlas más rápidas y accesibles Eso y mucho más representan las computadoras, una de las maravillas más detonantes del siglo XX.

Estas máquinas que realizan las operaciones matemáticas que la mente humana tardaría horas en concretar, y no siempre con exactitud, están prestando un imponderable beneficio a la humanidad, porque han permitido resolver no sólo operaciones de este tipo, lo que ya es mucho, sino también encontraron solución a numerosos problemas de trabajo; se han introducido en el campo de la medicina, en la vida diaria del hogar, y el hombre no habría podido enviar satélites, y menos haber descendido en la Luna, si no hubiera contado con esta prodigiosa conquista.

Los primeros recuerdos sobre la evolución de las máquinas computadoras indican cómo la lógica fue introducida en el cálculo. Las primigenias máquinas, como la de Pascal, no efectuaban nada más que operaciones aritméticas aisladas; el encadenamiento de las distintas operaciones que daban como resultado el cálculo completo, quedaban enteramente en manos del usuario de la máquina. El proceso se efectuaba tal como se hace en la actualidad con las máquinas de teclado.

Durante la Segunda Guerra Mundial aparecieron las calculadoras electromecánicas y, posteriormente, las electrónicas, capaces de encadenar las operaciones. De esta manera, se logró que la máquina ejecutara una serie de operaciones cuya secuencia es conocida de antemano y, además, cierta selección de operaciones, en función de los resultados parciales obtenidos en el curso

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

LOS ENLACES QUÍMICOS EN LA ELECTRÓNICA: Gracias a las propiedades que les confieren, entre otros, los enlaces que son capaces de establecer, algunos elementos químicos tienen múltiples usos en la vida cotidiana. El silicio, por ejemplo, es un metaloide brillante, gris azulado. Forma el 26% de la corteza terrestre como sílice (SiO2 ) y silicatos. No existe en estado libre en la naturaleza y se prepara por reducción del sílice de la arena a elevadas temperaturas. El silicio forma parte de las arcillas, vidrios, cementos, siliconas.

En los últimos años, la demanda de este metaloide, así como de germanio y de selenio, se incrementó debido a que se utilizan para fabricar transistores y circuitos integrados. En el caso de los transistores se aprovecha la capacidad de semiconductor del silicio.

El cristal de silicio prácticamente no conduce la corriente eléctrica, porque muy pocos electrones tienen la energía suficiente como para escapar de sus átomos. Sin embargo, el agregado cuidadoso de impurezas lo convierte en conductor. Para comprenderlo, es preciso analizar la teoría de las bandas.

Según esta teoría, en una cristal, tal como ocurre en los átomos aislados, los electrones se ubican en niveles o “bandas” respecto de los átomos, pero, a diferencia de los átomos en los cuales estos niveles están bien diferenciados unos de otros, en los sólidos las bandas son continuas unas de otras.

Cuando los electrones se encuentran en la banda más cercana al átomo, llamada banda de valencia, el cristal no conduce la electricidad; en cambio, si se encuentran alejados del á-tomo, en la banda de conducción, el cristal conduce la eletricidad. En los metales, ambas bandas están pegadas una con otra, y el pasaje de electrones es sencillo. En los no metales y en los semiconductores existe una gran diferencia de energía entre ambas.

Cuando el silicio se contamina con un elemento que tiene un electrón más en su nivel más externo, el electrón sobrante no se une a los electrones del silicio y queda libre para moverse dentro del cristal, alcanzando la banda de conducción. Se forma así un material llamado semiconductor tipo n. Por el contrario, si el contaminante que se agrega es boro (que tiene un electrón menos), la banda de conducción baja su nivel energético y “se acerca” a la banda de valencia, permitiendo la conducción a través de los “huecos” vacantes. El material formado es un semiconductor tipo p.

Con los materiales semiconductores se fabrican transistores, que son componentes electrónicos que permiten o no el paso de la corriente eléctrica. En 1960 se creó un sistema capaz de tallar, mediante técnicas fotográficas, cientos de transistores en un pequeño bloquecito plano de silicio: se inventó así el primer circuito integrado o chip. En la actualidad, se construyen chips mucho más complejos llamados microprocesadores, capaces de leer y actuar de distinto modo según las necesidades del usuario. Estos componentes electrónicos pueden manejar la información de dos maneras diferentes:

Los componentes analógicos traducen magnitudes que varían constantemente en señales amplificadas que se modifican de la misma manera. Se usan, por ejemplo, en amplificadores de audio y sintetizadores.

Los componentes digitales reciben, comparan y procesan información en forma de pulsos eléctricos. Las señales de entrada y de salida sólo pueden tomar determinados valores, que se combinan para formar códigos. Estos componentes forman el sistema binario y se emplean en todos los sistemas computerizados. (Fuente: Química I Alegría-Bosack-Dal Fávero-Franco-Jaul-Ross)

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Historia Evolución Tecnológica Post Guerra Mundial
Durante los anos de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental. Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos. Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado. En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950
Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo. Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953. En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.
También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles. La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos. Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez. En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura. Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado. Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines. Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones. En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional. Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección. Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente. Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia). Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX. El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania. En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año. En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento. Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

La Revolucion Cientifica del siglo XX: Descubrimientos y Avances Cientìficos

La Revolución Cientifíca del Siglo XX:

NECESIDAD DE LA TEORÍA CIENTÍFICA: De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX.

Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso.

A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables.

Así, sin estar precedida por una comprobación empírica, se formuló la teoría de la Relatividad; la física del siglo XX no construye sus estructuras sobre leyes sino sobre teorías, con lo que incluso desde el punto de vista gnoseológico su posición es revolucionaria. La teoría de la Relatividad de Einstein y la teoría cuántica de Planck constituyen los dos capítulos fundamentales y al mismo tiempo el punto de partida para dos concepciones de la ciencia física.

DOS TEORÍAS SOBRE LA REALIDAD FÍSICA

Einstein, al continuar los estudios de Michelson y Morley sobre la luz, cuya velocidad consideraba una constante del universo, llegó a concluir que el tiempo es una variable que depende de la velocidad del espectador (Teoría de la Relatividad Restringida, 1905). Diez años más tarde consiguió medir la relación entre masa y energía (E= mc2); un cuerpo que irradia energía pierde masa, de donde deduce que la masa puede convertirse en energía y su equivalente es la cifra fabulosa obtenida al multiplicar su masa por el cuadrado de la velocidad de la luz (Teoría de la Relatividad General, 1915). Todas las futuras investigaciones sobre el átomo partieron de estas geniales formulaciones del joven científico alemán, que se trasladó posteriormente a Estados Unidos y adquirió la nacionalidad norteamericana.

Einstein demostró que el espacio es curvo y que la curvatura se intensifica en la proximidad de los cuerpos pesados, con lo que desmontó las concepciones newtonianas del espacio y justificó las geometrías no euclidianas, ya que en un espacio curvo las paralelas pueden unirse y todos los axiomas y postulados de Euclides sustituirse por otros. Al fotografiar la curvatura de la luz de las estrellas abrió nuevos horizontes interpretativos sobre la naturaleza de la luz y se encontró una prueba de la curvatura del espacio. Plank formuló en 1900 su teoría cuántica; de la misma manera que la materia es discontinua y está formada por una red de átomos, la energía irradia de forma discontinua en forma de cuanto o corpúsculos de valor variable según la intensidad de la radiación.

En 1924 Louis de Broglie fundó la mecánica ondulatoria, con la que concilió la teoría tradicional de la luz como onda continua y la cuántica de corpúsculo discontinuo. Las dos teorías suponen dos interpretaciones de la realidad física; la teoría cuántica la considera discontinua o corpuscular, la de la Relatividad la considera continua y constituida por una sustancia única espacio-tiempo que puede adoptar formas diversas. La teoría cuántica pretende conocer la naturaleza en términos observables, la Relatividad General en términos no observables, en cierto modo simbólicos, al afirmar que la naturaleza es una sucesión de formas geométricas de una sustancia única espacio-temporal.

INVESTIGACIONES SOBRE EL ÁTOMO

La concepción clásica del átomo como partícula indivisible había sido rechazada por los físicos del siglo XIX; desde finales de siglo hasta la actualidad los avances en el reconocimiento de las partículas elementales han sido constantes; Thompson, Rutherford, Bohr y De Broglie consiguieron trazar mapas nuevos en la estructura atómica. Thompson descubrió los electrones y demostró así que el átomo no es la partícula última; con las investigaciones de los esposos Curie sobre las radiaciones se inició otro camino que indagaba la energía contenida en el átomo. Rutherford diseñó un mapa del átomo en el que un núcleo, cargado con electricidad positiva, está rodeado por electrones con carga negativa.

cuadro del atomo

Esta imagen cobró movimiento en los estudios del danés Niels Bohr, quien postuló que los electrones giran alrededor del núcleo como si se tratara de un sistema solar en miniatura; el número y disposición de los electrones explicaba las propiedades químicas de los cuerpos y la sucesión de los elementos establecida a mediados del siglo XIX por Mendeleiev. Finalmente, De Broglie probó que las órbitas de los electrones no seguían una línea elíptica sino ondulatoria, oscilante, y que las ondas y los corpúsculos eran aspectos de una misma realidad. Otra línea de investigación se centró en la desintegración del átomo y en la energía que puede liberar. Rutherford rompió un núcleo de nitrógeno en 1919, al bombardearlo con partículas alfa mediante descargas eléctricas. Posteriormente, se descubrieron nuevos elementos en el átomo. Los neutrones eran obtenidos por Chadwick en 1932 al bombardear berilio con partículas alfa; Anderson el electrón positivo (positrón) y Neddermeyer el mesón, enlace entre los protones positivos y los neutrones.

En la década de los años 30 se investigó la radiactividad. Joliot Curie descubrió la radiactividad artificial, demostrando que los átomos bombardeados por neutrones se vuelven radiactivos. En 1936, Fermi obtuvo con este sistema cuerpos más pesados que los naturales y dos años después Hahn y Strassman descubrieron la posibilidad de la reacción en cadena, al comprobar que en los núcleos pesados como el del uranio de protón puede liberar varios neutrones, que al chocar con los nuevos núcleos los hacen estallar y proyectan nuevos neutrones; de esta forma un gramo de uranio puede liberar una energía equivalente a 2,5 tm de carbón. En 1939 con un ciclotrón se consiguió la fisión del átomo y la posibilidad de obtener reacciones en cadena en gran escala. La bomba atómica utiliza el uranio y la de hidrógeno el helio para producir esta reacción en cadena que libera una energía fantástica.

LAS ESCUELAS PROBABILISTA Y DETERMINISTA

Las teorías cuántica y de la Relatividad y las investigaciones sobre el átomo constituyen los capítulos más importantes de la nueva física. Pero los físicos se han sumido en incertidumbres que podríamos llamar de tipo metafísico, se han planteado en qué medida sus investigaciones se mueven en un nivel subjetivo o por el contrario les permiten un conocimiento no deformado de la realidad física. Dos escuelas, probabilista y determinista, afirman, respectivamente, la incertidumbre del conocimiento y la certeza de las leyes físicas.

Los probabilistas, con Bohr, Heisenberg y Dirac, parecieron en muchos momentos haber conseguido romper el “determinismo” de la física “clásica”. En 1925 Heisenberg planteó el dilema que fundamenta la postura probabilista, la imposibilidad de conocer simultáneamente la velocidad y posición de un electrón; si se conoce exactamente su posición, al obligarle a pasar por la pequeña abertura, no se conoce exactamente su velocidad al atravesarla, de lo que resulta que en un instante posterior será imposible precisar su situación. Con el principio de indeterminación Heisenberg afirma que el “espectador” modifica la realidad física al estudiarla, al aproximarse a contemplarlos deterministas se encuentran en minoría pero disponen de figuras tan gloriosas como Einstein, Schródinger, Blockinzev o De Broglie. La regularidad de las leyes físicas y la posibilidad de conocerlas con seguridad se resumen en la conocida fase de Einstein: “Dios no juega a los dados”. La Escuela de Copenhague, dirigida por Niels Bohr, se convirtió en la defensora del probabilismo, mientras la Escuela de París, dirigida por Louis De Broglie, ha sostenido el determinismo arguyendo que los probabilistas suministran una descripción incompleta de los fenómenos microfísicos. Como vemos, los científicos no se han limitado a escudriñar en los secretos del universo físico, sino que se han planteado la relación del hombre con ese universo desde atalayas “meta-físicas”.

EL CONOCIMIENTO DEL UNIVERSO

UNA VENTANA ABIERTA AL ESPACIO EXTERIOR

Capítulo fascinante de la ciencia del siglo XX es el cubierto por los progresos en el conocimiento del universo, posibilitados por la innovación de los instrumentos de observación y por la formulación de hipótesis filosóficas y físicas —la teoría de la Relatividad cambió sustancialmente la imagen del espacio— y modelos matemáticos. Hasta el siglo XVIII la astronomía se reducía al estudio del Sistema Solar y las estrellas se utilizaban como referencia, fondo invariable. Salvo Laplace, las teorías en boga hasta mediados de este siglo fueron elaboradas por filósofos; la más conocida es la de Immanuel Kant: Historia universal de la naturaleza y teoría del cielo (1755), cuyas ideas sobre el origen del Sistema Solar ejercieron prolongada influencia. Entre 1780 y 1820 se inició el estudio de nuestra galaxia, la Vía Láctea.

En 1842 el austríaco Doppler anunció un principio de fundamental importancia en astronomía: la luz de las estrellas produce un desplazamiento del espectro hacia el violeta cuando ésta se acerca, hacia el rojo cuando se aleja; con él se pudo medir la velocidad radial de las estrellas; en 1912 Slipher obtuvo el espectro de la nebulosa de Andrómeda y midió su aproximación a la Tierra a una velocidad de 200 km por segundo.

LA DIMENSIÓN DE LAS GALAXIAS

El conocimiento de nuestra galaxia recibió un impulso decisivo en 1918, cuando Harlow Shapley, a partir de los cúmulos globulares que se encuentran al Norte y al Sur del plano galáctico, consiguió determinar la posición y distancia del centro de gravedad de esta inmensa concentración de estrellas.

galaxia lejana

El Sol se encuentra situado en una posición marginal dentro de la galaxia, a 30.000 años luz del centro; de repente las soberbias geocéntricas y heliocéntricas quedaban barridas. Según los censos estelares se pensaba que disminuía la densidad de las estrellas en todas direcciones a partir de la Tierra, pero desde 1930 sabemos que es una simple impresión producida por la absorción de la luz por el polvo interestelar.

El diámetro de la galaxia es del orden de 100.000 años luz, lo que aumentaba espectacularmente las dimensiones hasta entonces concebidas, que no iban más allá de distancias diez veces menores. A continuación, comenzaron a medirse las velocidades de los astros en el espacio; el holandés Ort demostró que el Sol efectúa revoluciones circulares en torno al centro de la galaxia a 215 km por segundo, y posteriormente otros astrónomos, basándose en esta traslación solar, consiguieron determinar el orden de magnitud de la masa total de la galaxia en 200.000 millones de veces la masa del Sol. Estas dimensiones eran 2.000 veces superiores a las calculadas por Herschel, el primer astrólogo que, a finales del siglo XVIII, había intentado valorar el tamaño de la galaxia.

Se habìa llegado a dimensiones Impensables, pero todavía aguardaban nuevas sorpresas. La inmensidad de nuestra galaxia había hecho creer que ella sola constituía el universo. En 1924 Hubble demostró que nuestra vecina, Messier 31 de Andrómeda, constituía otra galaxia de estructura similar a la Vía Láctea pero mayor y más compleja, con estrellas dobles situadas a 2 millones de años luz. Por medio de los radiotelescopios se pudo comprobar la existencia de mil millones de estos paquetes de estrellas que llamamos galaxias, compuesto cada uno por miles de millones de cuerpos espaciales. Estas familias que pueblan el espacio son de diversas formas, esferoidales, elipsoidales, lenticulares, o prolongadas a modo de brazos, como la Vía Láctea.

Tras medir las dimensiones, otro capítulo atrajo la atención de los astrónomos: estos cuerpos espaciales se mueven a velocidades fantásticas dentro de las galaxias, mientras se produce otro movimiento de desplazamiento relativo entre éstas. Se comprobó primero, por el desplazamiento del espectro hacia el rojo, que las galaxias se alejaban del espectador terrestre; este alejamiento fue comprobado por Slipher entre 1912 y 1922. Pero la velocidad de desplazamiento no era constante; en 1928 Hubble publicó la ley de los desplazamientos espectrales, que afirma la relación distancia-velocidad; la velocidad de fuga parece aumentar con el alejamiento, 160 km por segundo por millón de años luz de distancia según la medida de Hubble, rebajada en la actualidad a 25 km por segundo. Se ha conseguido determinar la velocidad de más de mil galaxias, algunas se desplazan a 150.000 km por segundo, la mitad de la velocidad de la luz.

EL ORIGEN DEL UNIVERSO

el universo

Dimensiones, número de astros, velocidades de desplazamiento, alejamiento, todas las concepciones del universo han tenido que modificarse. En 1963 los objetos más lejanos cuyas distancias habían sido medidas se encontraban a 6.000 millones de años luz, pero entre las débiles imágenes captadas en Monte Palomar se sospechaba que podían encontrarse las correspondientes a galaxias que se situaban a 10.000 millones de años luz. Estas distancias introducen el factor tiempo en cosmología, porque el mensaje luminoso que recibimos corresponde a imágenes de otra época, incluso anteriores a la existencia de la Tierra, a la que se asignan 4,5 millones de años, de manera tal que el universo puede ser en la actualidad muy diferente a las imágenes que en este momento captamos.

¿Cómo es el universo?

Cada descubrimiento crea nuevas preguntas. ¿Se enfriará el Sol y morirá la Tierra de frío o, como parece más probable, se convertirá el Sol en una gigante estrella roja y achicharrará a todos los planetas de su Sistema? ¿Es la Tierra una curvatura del espacio? ¿Lo son todos los cuerpos celestes? ¿Qué es el espacio, qué respuesta

ha de darse tras la comprobación de que en las cercanías del Sol deja de ser euclidiano? ¿Qué geometría debe aplicarse al espacio? En 1917 Einstein demostró que la única posible era la de un espacio esférico de curvatura constante, cerrado, cuyo radio y cuya masa total podían obtenerse mediante fórmulas que propuso. Su modelo estable y estático ha planteado problemas casi insolubles, por lo que en 1922 Friedmann, matemático ruso, interpretando el efecto Doppler, se planteó la posibilidad de la modificación del radio del universo entre el instante de emisión de luz de una galaxia elevada y el instante de la observación; si el espectro se desplazaba hacia el rojo había que suponer que el universo se encontraba en expansión. Hemos indicado ya que así ocurre y que Hubble consiguió medir la velocidad de desplazamiento.

Otros teóricos aseguran que esta expansión es sólo una pulsación que será seguida de un período de contracción, con lo que el universo sería un enorme globo que se infla y desinfla periódicamente. La aportación de los teóricos (físicos y matemáticos) ha llegado a ser imprescindible, porque se nos plantea el problema de saber hasta qué punto la muestra de Universo que nos rodea resulta representativa. El modelo euclídeo de Newton, tanto tiempo útil, ha sido barrido desde el momento en que se abrió la ventana de las galaxias.

La teoría del Big Bang

big bang

La pregunta crucial se refiere al origen del universo. La teoría predominante en nuestros días es la denominada del Big Bang o explosión inicial. Su punto de partida se anda en la Teoría de la Relatividad General de Einstein. Un astrofísico, George Gamov, tras fechar esa explosión en un instante que se remonta a 15.000 millones de años, planteó la posibilidad de escuchar el eco de la misma cuando los instrumentos de medición permitieran acercarse a esa distancia. En 1964 dos radioastrónomos de los laboratorios Bell de Estados Unidos, Penzias y Wilson, que recibirían el premio Nobel en 1978, registraron un zumbido de fondo que posteriormente fue interpretado como el eco del Big Bang.

Otros científicos y desde 1992 el satélite COBE analizaron muestras de lo que se consideró la composición inicial del universo, concentraciones de hidrógeno y helio, a partir de las cuales se formarían estrellas y galaxias. Da la impresión de que se multiplican las pruebas del Big Bang, pero no todos los científicos aceptan esta teoría. Otro astrónomo eminente, Fred Hoyle, ha defendido la inexistencia de una explosión, afirmando que la materia se crea y destruye incesantemente en un universo estacionario. Doc. 3

El mejor procedimiento para elegir el modelo de expansión o el modelo estacionario consiste en estudiar la luz de los confines del universo, a miles de millones de años luz. En un universo en expansión esta luz sería “joven”, similar a la del momento de la explosión y diferente a la próxima a la Tierra; por el contrario, en un universo estacionario sería similar la luz próxima y la de los límites del universo.

DE LA VIDA A LA INTELIGENCIA ARTIFICIAL

EL MISTERIO DE LA VIDA

La bioquímica descubre y estudia los elementos químicos de la actividad vital y sus procesos o modalidades de acción. El descubrimiento de las enzimas, cuerpos químicos que actúan en procesos de fermentación, oxidación y fotosíntesis, fue seguido por el de las vitaminas, sustancias muy complejas, como la vitamina B, que contiene a su vez 15 sustancias. Con las vitaminas se completa la concepción de la enfermedad generada por un virus patógeno con el de enfermedad de carencia, como escorbuto, beriberi, raquitismo o enfermedades provocadas por la no presencia en el organismo vivo de alguna sustancia necesaria. Además de las adquiridas por alimentación, el organismo vivo produce sus propias sustancias, generadas por las glándulas endocrinas. Así, se ha descubierto la importancia de las hormonas que intervienen en el crecimiento de animales y plantas y en el funcionamiento preciso de los órganos: Ja insulina del páncreas, las hormonas del tiroides, las hormonas sexuales, etc.

Con el progreso de la bioquímica cambia la concepción de la vida, que es considerada como una estructura química peculiar, en la que el intercambio de elementos químicos es constante. Los componentes de lo vivo y lo no vivo son los mismos, la diferencia está en su ordenación, en su estructura. Teilhard de Chardin ha distinguido la acumulación exterior de elementos químicos que se produce en lo no vivo —así se forman los cristales, los minerales— de otro tipo de acumulación interna, que supone

Formas de vida extraterrestre

Pienso que las formas de vida de muchos mundos estarán compuestas en principio por los mismos átomos que tenemos aquí, quizás también por muchas de las mismas moléculas básicas, como proteínas y ácidos nucleicos; pero combinados de modos desconocidos. Quizás, si hay organismos flotando en las.densas atmósferas planetarias tendrán una composición atómica muy ‘parecida a la nuestra, pero es posible que carezcan de huesos y que, por lo tanto, no necesiten mucho calcio. Quizás en otros lugares se utilice un solvente diferente del agua. El ácido fluorhídrico nos podría servir bastante bien, aunque no hay una gran cantidad de flúor en el Cosmos; el ácido fluorhídrico causaría mucho daño al tipo de moléculas de que estamos hechos; pero otras moléculas orgánicas, como las ceras de parafina, por ejemplo, se mantienen perfectamente estables en su presencia. El amoniaco líquido resultaría un sistema solvente todavía mejor, ya que el amoníaco es muy abundante en el Cosmos. Pero sólo es liquido en mundos mucho más fríos que la Tierra o que Marte. El amoníaco es normalmente un gas en la Tierra, como le sucede al agua en Venus. O quizás haya cosas vivas que no tienen ningún sistema solvente: una vida de estado sólido donde en lugar de moléculas flotando hay señales eléctricas que se propagan.

una estructura más compleja, proceso al que el famoso pensador e investigador francés llama “complexificación interiorizante”. En el mismo sentido ha escrito Charón:

“Es muy posible que ese umbral que permite distinguir la Materia de lo Vivo sólo pueda ser descrito en términos de lenguaje topológico, que se refieran al espacio-tiempo. La Naturaleza, después de haber realizado todas las uniones posibles (por campos físicos) en nuestro espacio ordinario de topología plana (el de la Materia) había inventado la topología cilíndrica. Esta transformación exige, en principio, poca energía, ya que en ambos casos el espacio sigue siendo euclidiano, es decir, de débil intensidad de energía. Con la nueva topología cilíndrica pueden realizar-se bruscamente tipos de uniones posibles en la Materia. Además, las ondas electromagnéticas pueden permanecer encerradas (y, por tanto, disponibles) en este nuevo espacio. Salvamos así el umbral que separa la Materia de lo Vivo; las nuevas propiedades no tienen medida común con las antiguas: lo Vivo, con su topología diferente, constituye un auténtico universo en pequeño, paralelo al universo en que se distribuye y se pone la Materia”

Al conocimiento de los procesos vitales ha contribuido la investigación sobre la célula, a la que se ha consagrado una rama de la biología, la citología. Desde principios de siglo se realizaron cultivos de tejidos separados de su organismo y en 1933 el oftalmólogo ruso Filatov utilizó tejidos congelados en sus intervenciones quirúrgicas. Casi inmediatamente se consiguió mantener vivos órganos enteros separados de los organismos en que habían funcionado; en 1936 Carrel y Lindbergh hicieron vivir y funcionar durante varias semanas algunos órganos de mamíferos (ovarios, glándulas).

Otra línea de investigación atendió el estudio de los seres vivos más elementales, los virus. En 1935 Bochian consiguió sintetizar en el laboratorio uno de los más sencillos, el llamado virus del “mosaico del tabaco”. Se trata sin duda de seres vivos, ya que se reproducen y viven a expensas del medio en que se hallan, no obstante se discute su condición de organismo, parecen ser simples moléculas proteicas a las que se ha asignado la calidad de etapa intermedia entre la materia inanimada y viviente. El estudio de estos organismos inferiores, como los virus y las bacterias, ya más complejas, han permitido delimitar ciertas condiciones del origen de la vida, los elementos, presión y temperatura indispensables para el nacimiento de las operaciones específicas de lo vivo.

LA CIBERNÉTICA

En el campo de la electrónica, la física ha conseguido igualmente progresos revolucionarios, aplicados a la transmisión de señales (radio, televisión, satélites de comunicaciones), a la óptica (microscopios electrónicos, fotoelectricidad, cine). El láser, haz de ondas luminosas de intensidad mil veces superior a la de la luz solar, conseguido, por medio de emisiones estimuladas, por Maiman en 1960, está llamado a ser una de las maravillas del futuro y tiene aplicaciones ya en la medicina (cirugía de la retina, tumores cancerosos), en la industria y en la guerra (proyectiles dirigidos, aviones). Pero la aportación más importante de la electrónica es la construcción de ordenadores, que permiten la realización de complejas operaciones matemáticas en un tiempo mínimo y se han convertido en auxiliares imprescindibles para la exploración del espacio, utilísimos para la estadística y la manipulación de toda clase de datos en las complejas organizaciones de las sociedades industriales.

La primera calculadora electromecánica, construida por Howard Aiken, entró en servicio en 1944, era la Mark 1, que realizaba sus operaciones matemáticas mediante impulsos eléctricos cuya información procedía de cintas perforadas y cuyos resultados se obtenía también en perforaciones que finalmente se traducían en cifras. Luego, cálculos más rápidos y complicados se obtuvieron sustituyendo los relés por válvulas electrónicas; así se construyó el primer calculador electrónico, llamado Eniac. Mientras la Mark  necesitaba un tercio de segundo para hacer una suma de 23 cifras, la Data file, construida en 1957, puede leer varios millones de signos en milésimas de segundo.

El americano Norbert Wiener descubrió en 1948 la analogía entre el cerebro electrónico y el cerebro humano y la similitud de los impulsos eléctricos que transmiten la información y las órdenes entre el sistema nervioso del ser humano y los circuitos eléctricos; así nacieron máquinas eléctricas, robots que pueden funcionar según una lógica binaria, mientras la industria comienza a recorrer la investigación en este campo de la “electricidad pensante”. El fenómeno de la automatización, de la sustitución del trabajo humano por máquinas programables mediante las posibilidades de la electrónica, encierra profundas repercusiones sociales, anuncia un mundo en el que el trabajo de los hombres puede descargarse en máquinas, en un grado hasta hace poco tiempo insospechable.

Por primera vez disponemos ahora de medios para establecer contacto con civilizaciones en planetas de otras estrellas. Es un hecho asombroso que el radiotelescopio de 30 m de diámetro del National Astronomy and lonosphere Center, dirigido por la Cornell University en Arecibo, Puerto Rico, fuese capaz de comunicarse con otro idéntico situado en cualquier lugar de la Vía Láctea. Disponemos de los medios de comunicarnos no sólo venciendo distancias de centenares de miles de años luz, sino que podemos hacerlo de esa manera en un volumen que contenga centenares de miles de millones de estrellas. La hipótesis de que existen civilizaciones muy avanzadas en otros planetas se está poniendo a prueba. Ya ha dejado de ser pura especulación. Ahora se halla en el terreno de la experimentación.

LAS GRANDES CONQUISTAS DE LA CIENCIA

Hemos visto cuáles son las bases de la Revolución Científica del siglo XX: la física atómica, la física del espacio, las aplicaciones de la electrónica, la química de la vida; sobre estos cuatro pilares se han montado prácticamente todos los avances de la ciencia y de la técnica. De manera esquemática apuntamos algunos de los avances que más han influido en la vida del ser humano.

LA CONQUISTA DEL ESPACIO

Estamos probablemente en las primeras páginas de esta apasionante aventura, aunque nos parezcan ya conquistas casi increíbles: el lanzamiento de los primeros satélites (Sputniks rusos), la llegada del hombre a la Luna, el envío de ingenios espaciales para la recogida de materiales y la exploración del sistema solar, el ensamblaje de naves espaciales, etc.

LA GENÉTICA

Las teorías de Darwin y las leyes de Mendel han sido comprobadas en el siglo XX y enriquecidas o modificadas con las observaciones que permiten los aparatos de que disponen los investigadores. El holandés De Vries estableció, a principios de siglo, el concepto de mutación, la alteración que puede sufrir la carga genética almacenada en los cromosomas de las células genéticas o genes; de esta forma, la evolución no se produciría por alteraciones somáticas o anatómicas, por la adaptabilidad morfológica de los órganos a condiciones exteriores, como habían supuesto Lamarck y Darwin, sino por cambios internos del patrimonio hereditario. Las diferentes escuelas y los diferentes genéticos, Lyssenko, Dunn, Dobzanski, han explicado de diferentes formas los mecanismos pero aceptando todos la realidad de la evolución biológica.

EN LA MEDICINA

Podemos hablar de revoluciones, en plural. En primer lugar, el perfeccionamiento de los aparatos y las técnicas —rayos X, anestesia— ha permitido éxitos nuevos en la lucha contra la enfermedad. Por otra parte, la bioquímica ha puesto a disposición de los médicos sustancias que combaten a las bacterias patógenas: la meningitis es combatida por el ácido para-amino-salicílico; la malaria ha sido vencida por la cloroquinína y la paludrina; las vacunas han arrinconado enfermedades antes terroríficas; las sulfamidas y antibióticos han sido quizás la aportación más importante en este campo y Fleming, descubridor de la penicilina en 1928, uno de los grandes benefactores de la Humanidad.

Pero quizás el más fascinante capítulo de las ciencias medicas lo esté escribiendo el psicoanálisis, punto de partida para la medicina psicosomática. A las enfermedades provocadas por virus y a las provocadas por carencias de alguna sustancia habría que añadir un tercer tipo de trastornos, los del psiquismo, que se reflejan en el organismo, de donde se deduce que algunas enfermedades no pueden ser curadas sin estudiar sus raíces anímicas. Por otra parte, el psicoanálisis ha permitido un conocimiento más profundo del hombre. En este sentido la obra de Freud en medicina es equiparable a la de Einstein en física, supone una renovación total, un giro copernicano en los conceptos básicos

La indagación del subconsciente, en el que se arrinconan los traumas que el consciente no se atreve a afrontar y que afloran en el mundo de los sueños, permitió a Freud elucidar dimensiones desconocidas del espíritu, e iniciar unos métodos que fueron completados y revisados por Adler y Jung.Finalmente, constituye la revolución de las técnicas quirúrgicas el capítulo quizá más popular, especialmente el de los trasplantes de órganos, posibilitados por las investigaciones citológicas y las técnicas de conservación de órganos separados del ser al que pertenecen; los trasplantes del corazón, iniciados por el cirujano sudafricano Barnard, suscitaron la atención mundial, no obstante los avances más seguros no se han obtenido en la cardiología sino en la urología, oftalmología y otras ramas.

LA APORTACIÓN DE LA MATEMÁTICA

Durante siglos los matemáticos se movieron por los axiomas y postulados de la matemática griega; Thales, Pitágoras, Euclides son referencias constantes. Pero la nueva física precisaba una nueva matemática y partiendo de la consideración de que sólo el lenguaje matemático permite construir la ciencia física se ha desembocado en la afirmación de la necesidad universal de las matemáticas, necesidad demostrada por la cibernética y la aplicación incluso a ramas de la filosofía (lógica matemática). Un matemático-lógico, Kurt Gódel, demostró que en la ciencia eran siempre posibles las contradicciones porque el lenguaje científico es el desarrollo lógico obtenido mediante determinadas reglas (estructuras) aplicadas a un número de conceptos que se conviene en aceptar como validos, pero es posible sustituir estos conceptos básicos y levantar un nuevo edificio científico. De esta manera, se puede reemplazar la geometría de Euclides, apoyada en el postulado de que por un punto no se puede trazar más de una línea paralela a una recta, por otro postulado diferente (exigible por la concepción esférica del espacio einsteniano) y construir una geometría diferente. Y así se ha hecho. La aportación de Gódel, Whitehead, Russell, ha supuesto una palanca para el progreso del conocimiento.

De la misma manera que la Revolución Industrial se caracterizaba no por un invento aislado sino por una serie coherente de inventos, o mejor todavía por el invento que suscita otro más perfecto, la Revolución Científica ha despertado en cadena métodos y revelaciones que plantean nuevos interrogantes y permiten vislumbrar al mismo tiempo la posibilidad de contestarlas en un futuro inmediato.

El desafío del espacio

No hay camino de retorno al pasado; las únicas opciones, como ya dijo Wells, son el universo o la nada. Aunque los hombres y las civilizaciones anhelen descansar, para Eliseo y los lotófagos existe un deseo que se funde imperceptiblemente con la muerte. El desafío de los grandes espacios entre los mundos constituye un desafío formidable, pero si no le hacemos frente, ello significará que la historia de nuestra raza llega a su fin. La Humanidad habrá vuelto la espalda a las alturas todavía vírgenes y descenderá de nuevo por la larga pendiente que conduce, a través de miles de millones de anos, a los mares primigenios.

Escritos de Albert Einstein

La democracia

Mi ideal político es la democracia. El individuo debe respetado como persona. Nadie debería recibir un culto idólatra (Siempre me pareció una ironía del destino el haber suscitado tanta admiración y respeto inmerecidos. Comprendo que surgen del afán por comprender el par de conceptos que encontré con mis escasas fuerzas, al cabo de trabajos incesantes. Pero es un afán que muchos no podrán colmar).

La riqueza

No hay riqueza capaz de hacer progresar a la Humanidad, ni aun manejada por alguien que se lo proponga. A concepciones nobles, a nobles acciones, sólo conduce el ejemplo de altas y puras personalidades. El dinero no lleva más que al egoísmo, y conduce irremediablemente al abuso. ¿Podemos imaginar a Moisés, a Jesús, a Gandhi, subvencionados por el bolsillo de Carnegie?

La educación

Dar importancia excesiva y prematura al sistema competitivo y a la especialización en beneficio de la utilidad, segrega al espíritu de la vida cultural, y mata el germen del que depende la ciencia especializada.

Para que exista una educación válida es necesario que se desarrolle el pensamiento crítico e independiente de los jóvenes, un desarrollo puesto en peligro continuo por el exceso de materias (sistema puntual). Este exceso conduce necesariamente a la superficialidad y a la falta de cultura verdadera. La enseñanza debe ser tal que pueda recibirse como el mejor regalo y no como una amarga obligación.

Cuestionamientos al Progreso Tecnológico del Siglo XX

ALBERT EINSTEIN:  Mi visión del mundo. Tusquets, Barcelona, 1980.

Temas Relacionados:
El Átomo
Proyecto Genoma
Vida de las Estrellas
Biografía de Albert Einstein
Biografía de Max Planck

Biografía de Freud
Teoría de la Relatividad

La Descolonización de Africa y Asia: Que fue este proceso y porque?

La Descolonización de África y Asia:

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal.

DESCOLONIZACION DE AFRICA Y ASIA

Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual.

FACTORES DE LA DESCOLONIZACIÓN.-

La descolonización tiene como consecuencia la independencia, pero esta, sin embargo, no se alcanza en muchos países de una forma completa, pues aunque la mayoría consigue su soberanía política, los lazos que les unen al pasado colonial quedan profundamente estrechados, manteniéndose una dependencia social, económica y cultural que condicionan su posterior desarrollo cayendo en una nueva modalidad de colonialismo.

FACTORES INTERNOS

El crecimiento demográfico:

La mayoría de los países en vísperas de su revolución contaban con unos efectivos demográficos muy elevados. Las altas tasas de natalidad, típicas en los países poco desarrollados, vieron descender sus tasas de mortalidad debido a sus mejoras higiénicas y médicas que habían aportado las potencias coloniales. Se producen grandes corrientes migratorias hacía las grandes urbes. Este incremento urbano sirvió de cohesión y acercamiento a los problemas y a la vez de difusión de ideologías y actitudes hostiles a la presencia colonial.

Transformaciones económicas y sociales:

La introducción de economías especulativas y de nuevos sistemas de intercambio en las colonias, trajo como consecuencia la destrucción de los anteriores sistemas de subsistencia, a la vez que situaba a gran parte del planeta en un circuito comercial internacional que se definiría como de “intercambio desigual” al desequilibrarse claramente a favor de los colonizadores.

Para obligar a trabajar a las poblaciones dependientes en los productos o en los sectores que interesaban a Europa, y para procurarse mano de obra en las condiciones más ventajosas, se utilizaron todo tipo de coacciones y trucos, desde impuestos a pagar en jornadas de trabajo, hasta trabajos forzados, e incluso, a pesar de estar prohibido, la compra de esclavos.

Cambios culturales e ideológicos:

Las nuevas formas de vida eran el testimonio del abandono tanto de sus agrupaciones tradicionales en clanes de familias o religiosos, como de sus instituciones y costumbres. Las sociedades coloniales soportaron el proceso de aculturación, es decir, la implantación de las formas de pensamiento y los valores surgidos en Occidente. Ante el choque producido por la presencia extranjera, gran parte de la población buscó una huida refugiándose en sus mitos.

Los círculos ilustrados indígenas, pertenecientes a la burguesía, iban aumentando con la extensión de la enseñanza occidental. Esta minoría ilustrada, sin embargo, aprendió de Occidente, bien la manera de prosperar dentro del sistema establecido, o bien la de utilizar sus enseñanzas en su contra en el momento oportuno, siendo, por tanto, los principales animadores de los movimientos nacionalistas e independentistas.

Los movimientos nacionalistas y sus líderes:

Para tener éxito en las metas propuestas, es decir, para que las distintas aspiraciones y movimientos nacionalistas pudieran alcanzar la independencia respecto de sus naciones dominadoras, fue necesaria la presencia de líderes que dotaran a estos movimientos de un programa político y una autoridad moral que, fácilmente comprendidas por las masas, calaran en sus pensamientos y les llevaran a perseguir su puesta en práctica.

FACTORES EXTERNOS

La crítica anticolonial:

La oposición al régimen colonial nace casi desde los comienzos de la colonización europea, incrementándose luego a medida que el mundo occidental tuvo un mayor acceso a las libertades. Desde dentro del socialismo se condena el principio de implantación de un pueblo sobre otro.

La actitud de los intelectuales y de los círculos religiosos:

La acción misionera denuncia los abusos y sometimientos de las poblaciones indígenas, sería a través de las encíclicas como “Pacem in Terris promulgada el 11 de abril de 1963 por Juan XXIII o la de “Populorum progressio” el 26 de marzo de 1967 de Pablo VI, en las que se apoyaban mas decididamente la causa de la emancipación.

Durante el período de entre guerras surge el apoyo de los intelectuales y políticos, como los que en 1927 integraron la Liga contra el Imperialismo, esta celebró su Primer Congreso en Moscú, con la participación de delegados procedentes de los territorios sometidos.

Mucha mas incidencia tendría posteriormente la actitud de ciertos presidentes norteamericanos, como Wilson o Roosevelt, que se convirtieron en defensores de la causa de la libertad y de la emancipación de los pueblos.

La condena del socialismo: Desde los comienzos del movimiento socialista, se hicieron patentes las discrepancias; si bien los principios del socialismo eran incompatibles con la práctica colonial, no faltaron los que veían en el colonialismo el caldo de cultivo para ulteriores revoluciones socialistas. Otros veían que, a pasear de todo lo malo, el colonialismo podría resultar ventajoso para los sometidos.

Durante las dos guerras se transmitió a las colonias una imagen muy alejada de la próspera Europa que se quería haber transmitido: los enfrentamientos y las discrepancias entre los colonizadores. Los contactos entre colonia-metrópolis acentuaron el conocimiento de las tremendas diferencias, haciendo cada vez más patente lo que les separaba. Los esfuerzos a que las colonias se vieron sometidas para apoyar a las metrópolis vinieron seguidos de compensaciones (Asambleas legislativas) vía por la cual los nativos accedieron a los círculos de decisión política. El posicionamiento de USA y URSS, a partir del ’45, contrarios a la práctica colonial aparece en pleno proceso descolonizador, acelerándolo; pero no olvidemos los intereses que ambas potencias tienen (Guerra Fría).

La Sociedad de Naciones no desarrolló demasiados temas relativos al colonialismo debido a su parálisis, lo más relevante fue la creación de los mandatos como nueva figura jurídica; se trataba de desposeer a Alemania repartiendo sus antiguas colonias al tiempo que consolidaba y aumentaba la presencia de las viejas potencias (bajo una apariencia de vía hacia la independencia). La ONU recogió en su Carta un sistema ( la administración fiduciaria) que no deja de ser una forma de tutela colonial. El sistema se basaba en el derecho de los pueblos a acceder al régimen jurídico que deseasen y la necesidad de unas condiciones previas (económicas, culturales, políticas…) para poder ejercitar plenamente esos derechos.

Con el tiempo la ONU fue haciéndose más y más portavoz de la causa descolonizadora; en la Declaración sobre la Independencia de los países y pueblos colonizados (1960) la ONU cambia de rumbo, enfrentándose al colonialismo, al que tacha de “mal absoluto”. No debemos olvidar un nuevo factor descolonizador: el aopyo que a los procesos en inicio prestan los países que ya han accedido a la independencia; se trata de un movimiento de solidaridad que alcanza su cenit en la CONFERENCIA AFRO-ASIÁTICA DE BANDUNG (1955. Isla de Java, Indonesia). Un año antes, los países ya independizados, encabezados por Ceilán, India, Pakistán, Indonesia y Birmania establecieron una serie de objetivos para esta conferencia:

Favorecer las relaciones amistosas entre las naciones africanas y asiáticas.

Examinar los problemas (económicos y sociales) de los países asistentes.

Analizar lo relativo a la soberanía nacional, racismo y colonialismo.

Valorar la posición de África y Asia en el contexto mundial.

La conferencia estuvo presidida por el Presidente de Indonesia (Ahmed Sukarno) que junto con Nehru (India) fueron los padres de la idea. La presencia de delegaciones fue más asiática que africana. Paralelamente Europa se posicionó temiendo agitaciones (los líderes independentistas y los “revoltosos” fueron encarcelados).

PROCESO DESCOLONIZADOR: RASGOS, ETAPAS Y AREAS

Según M. Madridejos la descolonización pacífica implicó la alianza o el entendimiento del poder colonial con la burguesía autóctona (cuando la hubo) o con los jefes tradicionales o con algún líder carismático. Concediendo la independencia las potencias pretendían encontrar otra vía mas sutil de dominación. Esta es la vía aplicada en casi toda el África negra.

El poder colonial provocó divergencias entre las fuerzas de la colonia a fin de imponer mejor sus condiciones o de asegurarse una permanencia en la zona. Este sería el caso de la partición de la India, basada en el fanatismo religioso excitado por la metrópoli para debilitar al partido del Congreso.

Cuando la independencia fue reclamada por un movimiento popular que podría hacer cambiar al nuevo país de bando, la guerrilla o la guerra abierta fueron fenómenos corrientes. Estos fueron los casos de Malasia, Indochina y Argelia.

En zonas donde los conflictos civiles estaban presentes, las metrópolis se aliaron con los bandos más nacionalistas conservadores y no dudaron en respaldar a regímenes dictatoriales. Casos de Filipinas, Vietnam y Corea del Sur.

ETAPAS DEL PROCESO DESCOLONIZADOR.

Durante la Primera Guerra Mundial y el posterior período de entreguerras los territorios del Oriente Medio y del Sur del Mediterráneo fueron los más afectados. El avance de la oposición a la presencia europea en los países musulmanes creció, pero la desunión en el seno islámico propició la creación de nuevas formas de dominación (protectorados…) en la zona. Incluso países ya independientes (Irán, Afganistán, Turquía…) fueron víctimas de la intromisión francesa o británica en sus asuntos internos

Tras la Segunda Guerra Mundial se abre el proceso descolonizador en toda su magnitud, siendo Asia la zona en la cual el proceso, ya abierto pero no concluido desde el XIX; aquí y ahora se escapa al control europeo y norteamericano. En Asia, según J. Chesneaux debe tenerse en cuenta la acción de los grupos y partidos nacionalistas, generalmente conservadores, y en la que suele darse dos tendencias: una de organización casi secreta (caso del Kuomintang chino), y otra que se constituye en “comité de notables” (Caso del Partido del Congreso, de la India). El movimiento nacionalista se debe entender como el “conjunto de manifestaciones políticas, sociales y culturales que expresan las aspiraciones de un pueblo en su liberación”. Los partidos políticos que dirigen estas actuaciones buscan, no solo la independencia, sino también una transformación social. Esta mezcla de intereses se dio mucho en el caso de Asia

Japón había ejercido sobre su entorno el principal papel imperialista. Su desarrollo económico la había convertido en la principal potencia asiática. Japón ejerció en su entorno un efecto deslumbrante. China y su revolución supuso un acicate para la insurrección y para la difusión de ideas comunistas en Asia, aunque de un comunismo adaptado que hacía imposible la existencia de un socialismo no revolucionario.

India vio como el nacionalismo, existente desde antes, cobraba vida durante la Primera Guerra Mundial , acto que coincide con la labor de Gandhi. Durante el periodo de entreguerras la actividad fue creciendo, apoyada por dos corrientes: el Partido del Congreso y la Liga Musulmana; las diferencias entre ambas acabaron dando pié a la aparición de dos países diferenciados en lo religioso: India y Pakistán.

En África la presencia europea se prolonga hasta pasada la 2 G.M. En 1975 practicamente la totalidad del continente es independiente. El proceso abarca tres periodos:

1945-1955: época de los tanteos. Los partidos nacionalistas empiezan a contar con el apoyo de las masas.

1955-1962: época de la independencia de la gran cantidad de países. . Comenzó en el Norte.

1962-1980: Se consolida el proceso. 1975 es el año de conclusión de la descolonización.

La independencia de África, como se observa, comenzó también por los países musulmanes, aunque en Africa es más tardía que en África. Aquí el anticolonialismo, además de mostrarse antirracista y nacionalista, se ha orientado frecuentemente hacia el socialismo, que se define en esta variante africana como humanista, no dogmático y basado en el carácter religioso del africano.

En el África negra, Reino Unido dio luz verde a los procesos independizadores a partir de la 2ª G.M., basándose en la experiencia asiática, ya que podía ofrecer una institución de acogida (Commonwealth). El África francesa, basada en el concepto de asimilación, había creado la Unión Francesa (equivalente al órgano británico); en el seno de esta institución fueron creciendo los partidos nacionalistas.

En el ’58 se creó la Comunidad Francesa para regular las nuevas relaciones. En 1960 se independiza la práctica totalidad de las colonias francesas. El Africa Belga comienza a plantearse tímidamente el proceso en plena efervescencia de 1950; tras problemas Bélgica reconoció rápidamente la independencia en 1960.

Las colonias españolas y portuguesas : tras su entrada en la ONU España cambia su política y provincializa las colonias africanas para, poco después, otorgar autonomías que desembocan en independencia ( Guinea : 1968) o cesión a otros países (Ifni a Marruecos 1969) o ceder la zona a varios vecino (Sahara 1975). Portugal fue el país europeo más tardío en otorgar independencia a sus colonias: la revolución de los claveles (1974) , propiciada por el descontento sobre política colonial, aceleró pacíficamente el proceso.

EL TERCER MUNDO LOS PROBLEMAS DEL SUBDESARROLLO.

La plena soberanía alcanzada por las naciones tras la independencia no ha supuesto para la inmensa mayoría de ellas una mejora en las condiciones de vida de sus habitantes. La evolución de muchos países se ha visto frenada por conflictos que son consecuencia de una inestabilidad estructural. A menudo se han sucedido enfrentamientos y golpes y contreagolpes de estado, fruto de los partidos políticos que sirvieron en su momento de catalizadores de la independencia. La tendencia al “partido único” ha sido algo a lo que pocos países se han sustraído, justificando así las dictaduras militares y los gobiernos revolucionarios. Los ejércitos han desempeñado frecuentemente un papel protagonista, aunque frecuentemente se ha visto diviidido entre una mayoría de soldados analfabetos y una minoría de oficiales aculturados y ligados a la modernidad. Conflictos fronterizos y étnicos como los presentes de Centro-África vienen a completar este panorama.

El Neocolonialismo

Según el Prof. Arroyo se trata de “el dominio o influencia de las grandes potencias sobre países políticamente independientes, para asegurarse la explotación de sus recursos económicos y su fidelidad diplomática. Como el colonialismo, es otra forma de imperialismo, pero, a diferencia de aquel, no violenta, al menos teóricamente, las instituciones soberanas del país dominado; solo se asegura el control económico”. No se trata de algo nuevo, ya lo practicó USA en Sudamérica durante el XIX. Se trata de mantener las ventajas económicas, los mercados y los proveedores de materias primas pero sin ninguno de los inconvenientes de sistemas anteriores.

El Subdesarrollo.

El término intenta definir algo que solo puede explicarse por la carencia de algo ajeno. No podemos decir que sea una situación igual en todos los países que así catalogamos, pero sí que presentan rasgos semejantes. Términos anexos a este son los de “País en vías de desarrollo” (el fenómeno visto desde el lado economicista) y “Tercer Mundo / No alineados” (visto desde la perspectiva política). El subdesarrollo se manifiesta a través de una serie de rasgos y características; según el prof. Y. Lacoste , catorce son las características:

Insuficiencia alimentaria (menos de 2,600 calorías/día)

Graves deficiencias en la población (altas tasas de mortalidad infantil, analfabetismo…)

Infrautilización o desaprovechamiento de recursos naturales.

Elevado índice de agricultores con baja productividad.

Industrialización incompleta o restringida.

Hipertrofia y parasitismo del sector terciario.

Dependencia económica.

Baja renta per capita.

Dislocamiento de las estructuras tradicionales económicas y sociales.

Escasa integridad nacional.

Debilidad de las clases medias en relación con el reducido porcentaje de población urbana.

Paro, subempleo y trabajo infantil.

Elevado crecimiento demográfico.

Toma de conciencia de su estado.

Desde los años ‘50s los países económicamente desarrollados han venido sosteniendo líneas de apoyo a los subdesarrollados; desde los últimos tiempos estas se muestran insuficientes y aparecen voces contrarias a una recuperación artificiosa de estos países que solo acrecentaría las desigualdades: la deuda externa; la solución, parece estar, en lo que algunos han dado en llamar el comercio justo. Aunque este es un problema que atañe directamente a los países desarrollados, que se convierten día a día en la meta de la emigración de los no-desarrollados; parece no encontrarse una solución al problema…. Por ahora.

La Descolonización En Africa China India Afganistán

ORIENORITE PRÓXIMO

Los países árabes: descomposición del Imperio Turco.-

Después de la Primera Guerra Mundial, el Imperio Turco desaparece. Los ingleses y franceses pasan a tutelar la zona, mediante protectorados. Los países árabes van poco a poco adquiriendo la independencia en el Período de Entreguerras. El protectorado es una forma de dominio colonial. La colonia no pertenece a la metrópoli. Es un régimen en el que la metrópoli dirige la política exterior. La política interior es dirigida por un gobierno indígena.

La creación del estado de Israel (ver el conflicto árabe-israelí)

La creación de este estado en 1948, con apoyo de la ONU, ha originado una fuente de conflictos provocados por las rivalidades árabe-israelíes.

Desde principios del siglo XX, la población judía comienza a trasladarse a este territorio, por la tradición. Esta tendencia continúa hasta la SGM. Después de ella, el mundo, que conoce el holocausto judío, apoya la creación del Estado de Israel, para dar una patria a los judíos. Se crea en 1948 y va a ser una fuente de conflictos con los árabes.

Egipto, Irak, Líbano, Yemen, Siria, Arabia Saudita y Transjordania forman la Liga Árabe, que se enfrenta en una guerra a Israel. Pero Israel, al contar con el apoyo de EE.UU. está en superioridad y vence, ampliando sus territorios.

Hubo varios enfrentamientos más. El consejo de seguridad de la ONU se reunió varias veces y redactó resoluciones, ninguna de las cuales fue nunca cumplida por ningún bando, hasta los años 90. Los árabes se sentaron a negociar porque se les acabó el apoyo soviético.

El Tercer Mundo y el movimiento no alineado

Las colonias consiguieron la independencia. Ahora, siendo ya países, tienen muchos problemas. Son independientes políticamente, pero sufren una dependencia económica, que les hace pasar por serias dificultades. Tienen problemas sociales y políticos internos: se dan rivalidades y enfrentamientos entre distintas religiones o etnias, que llevaron muchas veces a regímenes militares dictatoriales.

El término Tercer Mundo se impuso como una forma de designar a todos aquellos países que, por encima de su adscripción al bloque occidental y soviético, se identifican con situaciones de dependencia, pobreza o subdesarrollo.

En los países tercermundistas va a nacer un movimiento que pretende dar una tercera opción, sin adherirse a ningún bloque. Es el movimiento no alineado o de no alineación. Fue impulsado por los líderes independentistas.

Estos líderes convocaron una reunión, la conferencia de Bandung, que reunía a los líderes de países del Tercer Mundo. Esta conferencia intenta recuperar la dignidad de estos países. En el acta final de esta conferencia, se defiende la independencia de los pueblos y la igualdad de las naciones; se rechaza el intervencionismo de las grandes potencias y todas las presiones que puedan ejercer; se defiende el pacifismo como forma de resolver los problemas y se reconoce la necesidad de ayuda para los países subdesarrollados.

En este sitio ver también: EL TERCER MUNDO 

Nacimiento y Caìda del Comunismo:Lenin,Trosky,Stalin y Gorbachov

Nacimiento y Caìda del Comunismo
Sus Líderes: Lenin,Trosky,Stalin y Gorbachov

hombres lideres del comunismo ruso: Lenin y Gorvachov

1917: Nace El Comunismo                         1991:Cae El Comunismo

LA DESINTEGRACIÓN DE LA URSS

Mijaíl Gorbachov nació en Stávropol, en el sudoeste de Rusia. Participó activamente en política desde muy joven y pasó a ser líder de la URSS en 1985. Transformó radicalmente las relaciones de la URSS con Occidente y se le atribuye el mérito de frenar la carrera armamentista y de concluir la Guerra Fría.

Trató de solucionar los problemas políticos y económicos soviéticos con un programa de reformas internas y, tras el desmembramiento de la URSS en 1991, protagonizó varios intentos fallidos de regresar a la arena política en Rusia. Recibió el premio Nobel de la Paz en  1990. En 1989, con la esperanza de que el pueblo soviético aceptase un nuevo «comunismo de rostro humano», Gorbachov permitió elecciones libres a algunos puestos en el Congreso de los Diputados del Pueblo (el parlamento soviético). Sin embargo, pronto tuvo que enfrentarse a las demandas de ampliación de estas concesiones planteadas por un nuevo diputado electo, Boris Yeltsin.

El Fin del Mundo Bipolar:
Las tendencias hacia el fortalecimiento de las nacionalidades antes subsumidas en los estados comunistas no se limitaron a Europa oriental. La Unión Soviética también sufrió los efectos de las reivindicaciones nacionalistas largo tiempo reprimidas. La Unión Soviética era un estado multiétnico y plurilingüe: 92 nacionalidades y 112 lenguas reconocidas. (ver mapa de los países de la antigua URSS)

El régimen comunista había controlado férreamente los potenciales conflictos que pudieran afectar la unidad territorial. Pero las reformas de Gorbachov abrieron la oportunidad para que muchos grupos nacionales comenzaran a manifestar su voluntad de establecer estados nacionales separados de la Unión Soviética. Gorbachov se propuso modificar el estatuto federativo de la Unión Soviética, otorgando mayor autonomía a las repúblicas federadas pero manteniendo la unidad del estado soviético.

La política de Gorbachov enfrentó cada vez mayores resistencias. La situación económica empeoró y las elecciones realizadas en buena parte de los estados que componían la Unión Soviética dieron el triunfo a fuerzas de corte nacionalista y anticomunista, poco proclives a mantener los vínculos con Rusia. A fines de agosto de 1991, un intento de golpe militar contra el gobierno de Gorbachov fue frustrado con la decisiva actuación de Boris Yeltsin, presidente de la Federación Rusa.

Pocos meses después, fracasado el proyecto federalista de Gorbachov, la Unión Soviética fue disuelta y se creó la Confederación de Estados Independientes (CEI), una laxa unión entre once de las quince repúblicas soviéticas -las repúblicas bálticas y Georgia no forman parte de la confederación-. Boris Yeltsin desplazó a Gorbachov como líder del nuevo agrupamiento y Rusia se convirtió en la heredera institucional de la Unión Soviética.

Gorbachov y Yeltsin
Yeltsin se había hecho popular en la URSS por sus abiertas críticas a Gorbachov y la Perestroika. En 1990, fue elegido presidente de la Federación Rusa, la mayor de las repúblicas soviéticas, y se sirvió de esta posición para atacar a Gorbachov y al PCUS, insistiendo en que el Partido no podía monopolizar él gobierno por más tiempo. Su decisión de darse de baja del Partido en julio de 1990 fue un desafío público. Frente a Yeltsin, la figura de Gorbachov aparecía débil y anticuada.

Durante 1990, Gorbachov se esforzó en mantener unida a la URSS enviando tropas a Azerbaiyán para reprimir las luchas interétnicas y oponiéndose a la independencia de las repúblicas bálticas. El 19 de agosto de 1991, un grupo de la línea dura del PCUS intentó un golpe de estado: detuvieron a Gorbachov y a sus asesores, declararon el estado de emergencia y anunciaron su intención de restaurar el antiguo régimen soviético.

Yeltsin fue a la Casa Blanca (edificio del parlamento soviético) e hizo un llamamiento al pueblo para que acudiese a protegerlo. El apoyo popular puso fin al golpe. Gorbachov fue repuesto en su cargo cuatro días más tarde, pero su prestigio quedó dañado de forma irreversible.

En septiembre de 1991, el Congreso de los Diputados del Pueblo concedió a todas las repúblicas soviéticas la independencia, disolviendo la URSS. Desaparecida la URSS, Gorbachov carecía de función real. Renunció en diciembre de ese año.

Fuente Consultada:
Historia 3 El Mundo Contemporáneo
Luchilo-Saccagio-Schwarzberg-Prislei-Suriano-Ternavasio

El Submarino Atomico o Nuclear Funcionamiento El Nautilius Polo Norte

FUNCIONAMIENTO DEL SUBMARINO ATÓMICO  – VIAJE AL POLO NORTE

En agosto de 1958 un inmenso objeto negro y alargado pasó lentamente bajo la corteza de hielo del polo Norte. Había navegado 1.500 Km. sin emerger y cumplía la fantástica tarea de cruzar el polo por debajo del agua. Era el Nautilus (foto izq.), estadounidense, el primer submarino atómico de la historia.

La idea de utilizar energía atómica para hacer marchar a los submarinos fue de Philip Albelson, en 1946. Sólo cuatro años más tarde, sin embargo, esta idea fue concretada en la construcción del primer submarino atómico, con la orientación del almirante H. Rickover.

El empleo de la energía atómica apresuró la solución de los dos grandes problemas que siempre preocuparon a los constructores de submarinos: las reservas de combustible y la existencia de dos tipos de motores. Los modelos antiguos usan motores Diésel cuando navegan por la superficie, y motores eléctricos bajo el agua.

Este sistema no permite grandes velocidades, exigiendo frecuentes ascensos a la superficie, cuando falta oxígeno o cuando la energía eléctrica se acaba. En el caso de los submarinos atómicos, la autonomía es prácticamente ilimitada.

Cómo funcionan: Con la eliminación de motores endotérmicos y motores eléctricos, se creó para los submarinos atómicos un sistema generador de vapor. El calor necesario para lograr su funcionamiento es proporcionado por una pila nuclear capaz de producir energía por muchos meses, dando a los submarinos una autonomía de más de 100.000 millas náuticas (casi el doble en Km.).

El sistema atómico de propulsión está constituido por dos circuitos cerrados que no necesitan oxígeno o agua del exterior ni tampoco aparatos de, descarga; por lo tanto, es el sistema ideal para los submarinos. En el primer circuito circula agua, sodio u otras sustancias cuya temperatura es elevada por encima del punto de ebullición.

Este líquido, encerrado bajo presión, no se transforma en vapor. Su calor se transmite al líquido que circula en el segundo circuito, y éste sí es transformado en vapor, el cual llega a la turbina y acciona la hélice. Para el funcionamiento de ese motor son suficientes algunos kilos de óxido de uranio, que permiten dos años de navegación.

La estructura : El submarino atómico tiene dimensiones bastante mayores que los de tipos anteriores. El submarino estadounidense Lafayette alcanza un desplazamiento de 8.200 toneladas. El francés Le Redoutable, llega a 9.000 toneladas. Tiene forma alargada, para una penetración óptima en el agua, y lleva en la popa una hélice de cuatro metros de diámetro. La velocidad que desarrolla es elevada, llegando a veces a más de treinta nudos, o sea, cerca de 56 Km./h. Los submarinos tradicionales alcanzaban 7 a 8 nudos: aproximadamente 13 a 15 kilómetros por hora.

La exigencia de mayor velocidad provocó otra modificación en la construcción de los submarinos: en vez de cuatro timones pequeños, la mayoría de los submarinos atómico lleva solamente dos timones de profundidad que sobresalen de la torre como grandes aletas horizontales. En esa posición, los timones no dificultan el fluir del agua a lo largo de la estructura. La torre, antes llena de salientes a causa de las armas e instrumentos que cargaba, hoy es lisa. Se ha transformado en una especie de aleta vertical y fina, necesaria para la estabilización del submarino.

La necesidad de navegar sumergido durante muchos meses exige espacio para todas las actividades de la tripulación, incluidos los ocios. Normalmente, el submarino nuclear dispone de dos tripulaciones que se alternan, a fin de evitar la fatiga de los individuos. Mientras los antiguos submarinos podían descender sólo 150 metros, los actuales pueden alcanzar profundidades de algunos centenares.

Esta es una gran ventaja para la actividad bélica, ya que navegando a gran profundidad el submarino se convierte en un blanco más difícil. Sin embargo, el submarino atómico tiene un grave defecto: el ruido de sus, máquinas, que en el silencio de los mares se propaga con gran facilidad. Navíos y helicópteros que estén a la escucha o que utilicen boyas sonares pueden localizarlo a la distancia.

Los astilleros estudian actualmente la forma de hacer’ más silencioso a este tipo de submarinos. Un submarino atómico estadounidense llega a costar casi 100 millones de dólares. Gran parte de esta suma se destina al equipo extremadamente complejo que se instala a bordo de la nave con la finalidad de dirigirla y lanzar mísiles y torpedos. El interior de un submarino nuclear parece un escenario de ciencia-ficción: hileras de computadoras, registradores y aparatos para el control de blancos. Todas las operaciones —desde la purificación del aire hasta la medición de la oscilación del submarino, y desde el control de los reactores hasta la regulación de la trayectoria de los mísiles— son efectuadas por computadoras electrónicas.

El armamento: Aunque ya se ha pensado en su utilización para fines pacíficos, los submarinos nucleares sólo fueron planeados, hasta ahora, con objetivos militares. Como integrantes de la moderna marina de guerra, se dividieron en dos grandes grupos: submarinos de ataque y submarinos lanzamisiles. La finalidad de los primeros es localizar y destruir navíos y submarinos enemigos, y están armados con torpedos. Los segundos tienen funciones estratégicas, y están provistos de misiles balísticos. Los submarinos de ataque cargan hasta 48 torpedos, capaces de dar en un blanco usando un equipo electrónico que capta el sonido o el calor de las máquinas de los navíos enemigos. Los mísiles utilizados por los submarinos atómicos son de dos tipos.

Unos son grandes mísiles balísticos que, lanzados por el submarino sumergido, vuelvan a través de miles de kilómetros hacia su lejano objetivo. Generalmente, tienen carga atómica y pueden utilizarse para atacar blancos que distan hasta 5.000 kilómetros. Los otros se usan en combinación con los torpedos.

El complejo misil-torpedo se llama subroc, abreviatura de subaqueous rocket (cohete submarino). Cuando los instrumentos de a bordo localizan un navío enemigo, el submarino se aproxima hasta 30 ó 40 Km. de su blanco y lanza el misil. Al funcionar así, el submarino actual prescinde del periscopio: los instrumentos modernos permiten acercarse al blanco sin necesidad de verlo. Esto es importante, porque el periscopio mide sólo veinte metros de alto y al utilizarlo, el submarino se acerca peligrosamente a la superficie del mar.

¿Y el futuro? : Es probable que los submarinos atómicos continúen siendo, por mucho tiempo, un arma exclusiva de las flotas de las naciones más poderosas. Pero ya se han dado los primeros pasos para la utilización no militar de los modernos submarinos. En Estados Unidos, por ejemplo, ya se usan los submarinos ató micos para la exploración del fondo del mar. Algunas compañías petroleras están proyectando la construcción de grandes submarinos para el transporte de petróleo desde los nuevos yacimientos de Alaska hasta los puertos cercanos a las refinerías. En un futuro no muy lejano también se podrá utilizar el submarino atómico para el transporte de mercaderías perecederas.

HISTORIA DEL NAUTILIUS: Terminada la Segunda Guerra Mundial con la terrible demostración de las capacidades del átomo, a principios de 1946 varios ingenieros navales reciben la orden de reunirse en una base militar secreta donde conocerían los reactores nucleares, pronto se pensó en utilizar esta energía como propulsora de submarinos por su propiedad de no necesitar oxigeno durante la fisión. Con este fin, la marina inició en 1948, un programa en Washintong en el Laboratorio de Investigación Naval, al mando de este programa estaba el capitán Hyman G. Rickover quien llegó a controlar todo el programa nuclear de la marina.

Adelantándose a su época y gracias a su tenacidad y empeño, consiguieron que en 1954 se botase el Nautilus, no sin enfrentarse a duras oposiciones desde todos los ámbitos, que consideraban el proyecto algo descabellado. Una vez convencidos, después de cuatro años de trabajo, la marina encargo a Rickover (imagen) y su equipo la construcción del primer submarino atómico en un plazo de cinco años.

Nadie, excepto el propio Rickover pensaba que ese plazo fuese factible, debido a lo descomunal de un proyecto en el que participarían miles de personas.

Se crearon unas instalaciones en Idaho en las que se construyó un duplicado del casco del Nautilus y se diseñó todo el sistema para que se adaptase en su interior. Esto suponía que todas las piezas de los reactores ya existentes debían ser rediseñados para adaptarse a las caprichosas formas de un submarino.

Rickover insistió en el control de calidad, también exigió un trabajo de ingeniería de la mejor clase, así como, hizo gran hincapié en tener una formación extremadamente competente de la futura dotación. Su equipo hizo todo lo posible para que este proyecto funcionase y lo hiciese bien, demostrando que aquel submarino podía ir al mar con total confianza y desempeñar su misión como submarino de combate.

Una de las principales preocupaciones del equipo de Rickover era evitar la radiación a toda costa. A este respecto cuando surgió el dilema de si debían cerrar la tapa del reactor con juntas o soldarla, se reunió a varios fabricantes de juntas que aseguraban que sus productos garantizaban el sellado. Rickover entró en la sala y les preguntó “¿Estarían dispuestos a permitir a sus hijos viajar en ese submarino?” a lo que los asistentes contestaron “suéldela”.

En 1952 se colocó la quilla del submarino en medio de una gran campaña publicitaria. Pero hasta la primavera de 1953 no se puso en marcha por primera vez el reactor Mark 1 en el centro de pruebas. Por fin, el 21 de enero de 1954 se botó el primer submarino nuclear, y a finales de 1955 el Nautilus se unió a la flota. Desde este día el submarino batió de inmediato todos losrecords de velocidad y permanencia sumergido. Con su primer núcleo de uranio navegó 62000 millas náuticas y casi todas en inmersión. Pronto se le consideró “el primer submarino verdadero”. Aunque se trataba más bien de un prototipo, sus capacidades demostraron que los conceptos de la guerra submarina y antisubmarina iban a cambiar drásticamente.

El propio Rickover afirmaba en 1956 “En mi opinión el Nautilus no es sólo un nuevo submarino que puede recorrer distancias prácticamente ilimitadas bajo el agua, yo lo considero una nueva arma y que puede tener un efecto tan profundo en las tácticas y estrategias navales como lo ha tenido el avión en la guerra”.

Los tripulantes acostumbrados a los submarinos convencionales opinaban del Nautilus que era una especie de trasatlántico. Tenía ventilación individual en todos los camastros, una sala común donde se proyectaban películas de cine, máquina de helados y muchas comodidades nunca vistas en un submarino. Los alimentos eran de la mejor clase y en aquella enorme sala las comidas se convertían en un acontecimiento social. La tripulación pronto lo apodó “Lola” en referencia a la canción “Lola consigue todo lo que quiere” ya que el proyecto contaba con toda clase de apoyos y un presupuesto muy generoso.

Pero pronto se terminarían aquellos momentos de tranquilidad y celebraciones. En la Unión Soviética se lanzó el primer satélite artificial, el Sputnik, mientras tanto el Nautilus operaba bajo el hielo del Ártico. Cuando el presidente Eisenhower se enteró de la posibilidad de cruzar por debajo del Polo Norte dio la orden. Su país debía responder de inmediato.

Después de algún intento, el Nautilus cruzó bajo el Polo Norte el 3 de agosto de 1958, este histórico acto demostró definitivamente la importancia estratégica del submarino nuclear. Operó hasta los años ochenta y en la actualidad el Nautilus está atracado en Groton Connecticut y se ha convertido en un museo que rinde homenaje a la flota submarina de los Estados Unidos.
(Fuente Consultada: Daniel Prieto)

UN POCO DE HISTORIA SOBRE LA EVOLUCIÓN DE LOS BARCOS: Desde el comienzo, los barcos de vapor tuvieron ventajas obvias sobre los barcos de vela. Por ser menos dependientes de los vientos favorables o adversos, cumplían mejor los horarios establecidos y nunca se quedaban encalmados.

Sin embargo los primeros vapores tenían también algunas desventajas. A mediados del siglo xix, el arte de construir barcos de vela llegó a su máxima perfección, y los mejores de los elegantes clíperes, construidos sobre el Clyde o en los astilleros de Boston, podían mantener una velocidad de 15 a 18 nudos en la mayoría de los viajes largos. En cambio los desgarbados y anchos vapores de ruedas rara vez podían viajar mucho más rápido que de 10 a 12 nudos. También los barcos de vela estaban en el mar tanto tiempo como sus provisiones lo permitieran, que podía ser varios meses; pero los vapores habían de permanecer en el mar solamente tanto como durara la provisión de carbón para las calderas.

A medida que la hélice reemplazó a la rueda de paletas, los vapores pronto aumentaron su velocidad, en parte porque la hélice era más eficiente que la rueda de paletas, en parte porque los barcos con hélice poseían un mejor perfil hidrodinámico y en parte también porque, en el ínterin, se habían perfeccionado los motores.

Y a medida que los vapores se hicieron más y más veloces, obtuvieron cargamentos cada vez más abundantes y valiosos. Para fines del siglo pasado, ya transportaban más del 80’% de todos los cargamentos, y los barcos de vela menos del 20 %. Luego, en los primeros años del siglo, se introdujeron las turbinas de vapor, y dieron a los barcos aún mayor ventaja en velocidad.

Así, el vapor había ganado la batalla de la velocidad; pero las velas eran todavía dueñas del cetro en la lucha de los barcos para ver cuál podía permanecer más tiempo en el mar. Pero, hace más de 50 años, comenzaron a botarse barcos de una clase diferente, provistos no de máquinas de vapor, sino de motores de combustión interna para mover la hélice. Estos pueden viajar los mejores barcos de motor modernos sin reabastecerse de combustible —hasta 30.000 kilómetros. Ahora, en nuestra época, el uso de reactores atómicos ha abierto la posibilidad de construir barcos capaces de navegar muchas veces alrededor del mundo sin reabastecerse.

Aunque los hombres de ciencia habían resuelto el problema de dominar la energía atómica con propósitos pacíficos pocos años después de la segunda guerra mundial, se tardó mucho más en producir un pequeño reactor apropiado para dar energía a un barco, y asegurarse de que se podría instalar sin exponer a la tripulación al peligro de la radiactividad. Así que hasta enero de 1955 el primer barco de energía atómica, el submarino americano “Nautilus”, no hizo su primer viaje de prueba. Sin embargo, en los años subsiguientes, un buen número de barcos atómicos comenzaron a circular.

El viaje más notable del “Nautilus”, que aparece en la ilustración de arriba, se hizo debajo de la capa de hielo que cubre el polo norte. El viaje demandó gran coraje, pues se pensaba que no se podría salir a la superficie hasta pasar el otro cabo de la capa de hielo. Pero el “Skate” lo hizo exactamente en el polo norte geográfico.

Otro submarino atómico norteamericano, el “George Washington”, que puede hacer viajes larguísimos y disparar proyectiles “Polaris” sin subir a la superficie. El rompehielos ruso “Lenin”,  puede navegar durante dos años sin reabastecerse de combustible. El diagrama del centro muestra cómo usa su propio peso para despejar un camino a través del hielo.

Fuente Consultada:
Sitio WEb Wikipedia
Revista Conocer Nuestro Tiempo
Diccionarioo Enciclopédico Espasa Calpe
El Triunfo de la Ciencia Tomo III Globerama Edit. CODEX

Biografía Rutherford Modelo Atomico Configuración del Atomo

Biografía Rutherford – Modelo Atómico

Temas Relacionados:  ¿Que es un átomo?  Energía Nuclear   Física Moderna  Fisión Nuclear

Ernesto Rutherford (1871-1937) fue uno de los mayores científicos experimentales de todos los tiempos. Nació enBrightwater, cerca de Nelson (Nueva Zelandia), de una familia de colonos ingleses.

Ernesto Rutherford fisicoAunque fue un buen alumno en la escuela, Ernesto no mostró una especial inclinación por la ciencia. En 1890, ingresó en el Canterbury College, de Christchurch, Nueva Zelandia, donde su aptitud científica se hizo patente, graduándose con las mejores notas, tanto en ciencias como en matemáticas.

Continuó en Christchurch en trabajos de investigación, y desarrolló un detector de ondas de radio, que dependía de la magnetización del hierro. En 1894, la Universidad de Cambridge, en Inglaterra, sacó a concurso una beca con destino a un posgraduado de Nueva Zelandia, y Rutherford la ganó. Llegó a Inglaterra en 1895, tras pedir dinero prestado para el viaje.

En Cambridge, J. J. Thomson era profesor del famoso laboratorio Cavendish, y, en aquel tiempo, estaba trabajando en experimentos sobre la conducta de los gases después de ser expuestos a los recientemente descubiertos rayos X. Rutherford dejó de trabajar en su detector de radio-ondas, que eventualmente Marconi tuvo en cuenta y a partir del cual se estableció la potencialidad de las emisiones de radio, y se unió a J. J. Thomson en su trabajo.

Cuando Rutherford estaba colaborando con Thomson en sus experimentos, en 1896, se anunció en París el descubrimiento de la radiactividad. En 1897, Thomson hizo pública su demostración de la existencia de los electrones, pero Rutherford estaba ya trabajando en experimentos sobre la conducta de los gases, después de haber sido expuestos a la radiactividad.

Durante estos años, observó muchas de las propiedades de ésta, y se familiarizó con los métodos experimentales de dicha ciencia. En 1898, Rutherford solicitó una plaza de profesor de investigación en la Universidad de McGill, de Montreal (Canadá), lográndola cuando tenía 28 años de edad, y dando comienzo así al primer gran período de descubrimientos científicos de su vida.

En 1901, el químico inglés F. W. Soddy colaboró con Rutherford en sus investigaciones sobre radiactividad, y, al cabo de un año, comprobaron que un átomo radiactivo se transforma en otro átomo diferente por emisión de radiación. Juntos, publicaron trabajos sobre la causa y naturaleza de la radiactividad, y acerca de la teoría de la “transformación espontánea”.

Rutherford también se preocupó de las partículas alfa (las partículas beta fueron identificadas por entonces como electrones), y publicó un trabajo general sobre los cambios radiactivos, en 1903. En 1904, dio a la imprenta su primer libro, titulado Radiactividad.

En cinco años, Rutherford, con la ayuda de Soddy, resolvió muchos problemas de esta nueva ciencia, observando que los átomos radiactivos se transforman espontáneamente en otros átomos, y definió el concepto de isótopos. En 1906, la Universidad de Manchester le ofreció ocupar la cátedra de un profesor que había prometido jubilarse si Rutherford aceptaba. Rutherford aceptó, y, en 1907, se trasladó a Manchester, que tenía laboratorios nuevos y bien equipados. Aquí empezó su segundo período de descubrimientos, probablemente el más importante y de seguro el más feliz de su vida.

Se encontró que, cuando una hoja metálica era bombardeada por partículas alfa, la mayor parte de estas partículas no se desviaban, o se desviaban en ángulos muy pequeños, cuando pasaban a través de la hoja. Sin embargo, algunas se desviaban un gran ángulo, y, en realidad, eran rechazadas por la hoja. Rutherford probó, matemáticamente, que tal comportamiento sólo se podía explicar con su modelo del átomo “nuclear”, es decir, un átomo en que un pequeño núcleo cargado positivamente está rodeado de un número de electrones. Cuando las partículas alfa pasan cerca del núcleo, son repelidas fuertemente (las cargas positivas se repelen entre sí), produciéndose un gran cambio de dirección. Cuando pasan a mayor distancia del núcleo, la desviación es muy pequeña.

En 1908, Rutherford recibió el Premio Nobel de Química, por sus trabajos en radiactividad, estando, por entonces, ocupado en investigar las propiedades de las partículas alfa, con la colaboración de varios de sus quince alumnos. Una serie de experimentos le llevó a la conclusión de que dichas partículas eran, en realidad, átomos de helio, y para probarlo efectuó en 1909 una sencilla e inteligente experiencia.

Puso una sustancia (radón), que emitía partículas alfa, fuera de un tubo donde se había hecho el vacío y se había cerrado después, teniendo un electrodo metálico en cada extremo. Pasados unos días, se aplicó una corriente de alto voltaje a los electrodos metálicos, y el espectro de la descarga eléctrica obtenida probó, sin duda alguna, la existencia de átomos de helio en el tubo, Las partículas alfa debían haber atravesado las paredes del tubo, almacenándose allí, y las partículas alfa tenían que ser átomos de helio. En realidad, sabemos hoy que las partículas alfa son núcleos de helio.

En 1911, Rutherford propuso su idea más revolucionaria relativa a la existencia del núcleo atómico. Hasta entonces se creía que el átomo era una esfera cargada positivamente, con electrones cargados negativamente, moviéndose en su interior. Dos de sus colaboradores descubrieron que, cuando se dejaba que muchas partículas alfa chocasen con una hoja fina de metal, varias de las partículas retrocedían, saltaban hacia atrás. Para explicarlo, Rutherford supuso que la carga positiva total del átomo se concentraba en un núcleo muy pequeño y que los electrones ocupaban el espacio externo del núcleo.

Esto, en 1911, era una idea revolucionaria, aunque hoy día está totalmente aceptada, y se la ha aceptado como el mayor cambio ocurrido en nuestra idea sobre la materia, desde el tiempo de los griegos. Esta teoría del núcleo sentó las bases para una nueva ciencia: la física nuclear.

^En 1912, Niels Bohr, el gran científico danés, se unió a Rutherford, y desarrollaron el modelo atómico de Bohr, con lo que se logró una aceptación general del átomo nuclear. En 1914, estalló la primera guerra mundial, y los científicos hubieron de abandonar los laboratorios. Tras algún tiempo de ausencia de Manchester, Rutherford volvió a su investigación académica, en el laboratorio desierto, dando comienzo a su tercer período de descubrimientos. Y, en 1918, ya estaba convencido de que podía demostrar experimentalmente la trasmutación artificial del nitrógeno (es decir, el cambio del átomo de nitrógeno en un átomo diferente).

Rutherford sólo puede ser igualado por Faraday en lo que respecte a la sencillez de los aparatos empleados, y su claro visión del significado de ¡os resultados experimentales. Sus tres grandes contribuciones a la teoría atómica fueron:
1°) Descubrió las leyes principales de la radiactividad y la Química de los elementos radiactivos naturales (1901-1906); 2°) descubrió el “núcleo” y ayudó al desarrollo del modelo nuclear del átomo (1909-1914), y 3°) descubrió la “trasmutación artificial” del nitrógeno (1917-1920).Rutherford estableció la naturaleza de las partículas alfa, recogiéndolas en un tubo de vidrio donde se había hecho el vacío.  Pasados unos días, el nivel de mercurio se había elevado, desplazando las partículas hacia la parte superior del tubo. El espectro de descarga entre los electrodos indicó la presencia de helio.

En 1919, Rutherford fue nombrado profesor del laboratorio Cavendish, de Cambridge, y rápidamente confirmó la certeza de dicha trasmutación artificial del nitrógeno. Para ello, hizo pasar partículas alfa provenientes del polonio, a través del gas nitrógeno; cuando una de ellas chocaba con un núcleo de nitrógeno, se desprendía un núcleo de hidrógeno y se formaba un núcleo de oxígeno. En 1920, llamó al núcleo de hidrógeno protón.

Y, pese a la gran cantidad de trabajo experimental que desarrollaba, Rutherford se encontró más ocupado cada vez en dirigir y organizar la investigación científica. El Cavendish creció en tamaño y fama bajo su dirección, pero ahora los descubrimientos eran realizados por la serie de hombres que trabajaban a sus órdenes, a los que él ayudaba con entusiasmo e interés. Ernesto Rutherford fue presidente de la Royal Society, desde 1925 a 1930, y, en 1931, fueron reconocidos públicamente sus grandes descubrimientos, mediante la concesión del título de Barón Rutherford de Nelson.
En plena actividad y con creciente optimismo en sus empresas científicas, la muerte sorprende a Rutherford, luego de una breve enfermedad, en octubre de 1937, siendo sus restos depositados en la abadía de Westminster.

DETECCIÓN DE PARTÍCULAS ALFA

esquema deteccion particula alfa
Una partícula alfa se puede detectar cuando choca con una pantalla de sulfuro de cinc, ya que produce una luz observable a través de un ocular (izquierda). Este método fue empleado por William Crookes. Ernesto Rutherford, junto con H. Geiger, inventó un método eléctrico para detectar partículas simples. En el aparato (derecha), se introducían, por unos instantes, partículas alfa en la cámara “C”. En esta cámara, el cilindro metálico “M” rodeaba el alambre aislado “W”, y se aplicaba un voltaje alto entre “M” y “W”. Cuando una partícula alfa chocaba con una molécula de gas en “C”, la molécula perdía un electrón, y éste electrón era acelerado en el campo eléctrico, chocando con una segunda molécula de gas, con lo que se liberaba un segundo electrón. Y volvía a repetirse, varias veces, toda la operación. De esta manera, se obtenía un flujo de electrones, que podía detectarse como un impulso eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°60
El Estallido Científico en el Siglo XX Trevor Williams

Primeros Ordenadores Electrónicos Evolución Histórica

Primeros Ordenadores
Historia de la Computación

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente.

Primeros Ordenadores a Válvulas

Primeros Ordenadores a Válvulas

Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar comentes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

Los primeros ordenadores electrónicos
Una buena forma de determinar la importancia de un adelanto técnico es considerar las consecuencias de su repentina desaparición. Un colapso general y prolongado de los servicios básicos, como el suministro de agua y electricidad, las telecomunicaciones, el transporte público o el sistema de alcantarillado, produciría en poco tiempo el caos y resultaría imposible mantener las condiciones de vida normales.

A fines del siglo XX, otra innovación tecnológica llegó a considerarse entre los elementos esenciales para mantener la normalidad de la vida cotidiana: el ordenador. Originalmente, no era más que un instrumento de cálculo, pero llegó a convertirse en un instrumento sumamente complejo de archivo y recuperación de la información.

Primeros Ordenadores

Primeros Ordenadores Para Uso Militar y Científico

Actualmente forma parte de la vida cotidiana hasta tales extremos que resulta difícil advertir que no existía, en su forma electrónica moderna, en los años de la preguerra y que los económicos ordenadores personales de fines del siglo XX tienen una capacidad mucho mayor que los gigantescos prototipos de los años 40. A fines de los años 80, se calculaba que el mercado mundial de los ordenadores había alcanzado una cifra anual de 100.000 millones de dólares: una hazaña notable para una industria tan joven.

El ASCC (Automatic Sequence Controlled Calculator), construido en Estados Unidos por IBM en 1944, puede considerarse el prototipo original de los ordenadores modernos. Aunque era básicamente un aparato electrónico, contenía muchos dispositivos mecánicos emparentados con los presentes en un extenso linaje de máquinas anteriores, cuya historia se remonta a la máquina de sumar del matemático francés Blaise Pascal, de 1642, y al aparato bastante más complejo del alemán Gottfried Leibniz, construido 30 años más tarde.

El ASCC era un auténtico dinosaurio: pesaba cinco toneladas, tenía 16 m de longitud y contenía 800 Km. de cables eléctricos. Para los criterios actuales, su capacidad de multiplicar dos números de 11 dígitos en 3 segundos resulta poco impresionante, ya que los tiempos de operación de los ordenadores de hoy en día se miden en millonésimas de segundo.

El sucesor del ASCC fue el ENIAC (Electronic Numerícal Integrator and Calculator) que, aparte de algunos conmutadores utilizados para controlar los circuitos, era completamente electrónico. Fue construido en la Universidad de Pennsylvania por J.P. Eckert y J.W. Mauchly, con el propósito original de utilizarlo en tiempo de guerra para calcular tablas balísticas. Sin embargo, no estuvo liste hasta 1946. El ENIAC era también una máquina gigantesca, dos veces más voluminosa que el ASCC. Contenía por lo menos 18.000 válvulas termoiónicas y, al rendimiento máximo, consumía 100 kilovatios de electricidad.

ENIAC

ENIAC

Dispersar el calor resultante era un problema en sí mismo. Para programar el ENIAC, era precise mover conmutadores y hacer conexiones manualmente, mientras que el ASCC se programaba con cintas perforadas. Los dos métodos tenían sus ventajas, pero ambos eran básicamente lentos y tediosos.

Para el siguiente paso, los técnicos volvieron a inspirarse en el siglo XIX, concretamente en la máquina analítica construida por el inventor inglés Charles Babbage en torno a 1830. Sorprendentemente, una de su; más fervientes publicistas fue lady Lovelace, hija de lord Byron, que señaló que muchos cálculos exigían la repetición de una secuencia determinada de operaciones y que sería posible ahorrar tiempo y trabajo si se conseguía que la máquina se ocupara de esos cálculos automáticamente. En efecto, el ordenador debía disponer de una memoria.

Incluso antes, en el siglo XVII, Leibniz había sugerido que para el cálculo mecánico era más sencillo utilizar la notación binaria, en lugar de la decimal tradicional. En esa notación, todos los números se expresar, con dos dígitos, O y 1, y no con los diez utilizados (de-O al 9) en la notación decimal. Para una calculadora electrónica, esta idea resulta particularmente adecuada, ya que corresponde a las dos modalidades eléctricas: «off» y «on».

Estos dos conceptos fueron incorporados por Johr. von Neumann, también de la Universidad de Pennsylvania, en una máquina mucho más avanzada, e. EDVAC (Electronic Discrete Variable Automatic Computer). En este aparato, la «memoria» consistía en pulsaciones sónicas conservadas en una columna de mercurio. A principios de los años 50 apareció ur. dispositivo de memoria más complejo, basado en el hecho de que la dirección de la magnetización en ciertos materiales denominados ferritas se puede invertir cas: instantáneamente, siguiendo la dirección de la corriente eléctrica en un circuito conectado.

Por entonces, el ordenador se estaba adelantando a sus posibilidades: realizaba las operaciones con más rapidez que el ritmo con que la cinta perforada podía suministrarle las instrucciones. El siguiente paso consistió en grabar el programa de operaciones en una cinta magnética, semejante a las utilizadas para la grabador del sonido.

Este adelanto fue incorporado en 1956 a UNIVAC de Remington-Rand, el primer ordenador electrónico disponible en el mercado, ya que los pocos modelos anteriores habían sido construidos para fines especiales a un enorme coste. Por este motivo, el público en general ignoraba casi por completo los adelantos en el mundo de los ordenadores.

La situación cambió considerablemente en 1951 cuando el UNIVAC original, diseñado para procesar la información del censo en Estados Unidos, previo acertadamente la elección de Dwight Eisenhower como presidente.

Carga Electrica del Electrón Experimento de Millikan Vida y Obra

Carga Eléctrica del Electrón
Experimento de Millikan

El nombre de Roberto Andrés Millikan estará ligado para siempre al estudio de los electrones, las diminutas partículas cargadas de electricidad negativa que barren en torno el núcleo de cada átomo. A partir de 1910, llevó a cabo una serie de ingeniosos experimentos en los cuales se dedicó a medir la carga que posee el electrón y confirmar que se trata de “la menor carga que puede existir”.

Anteriormente, J. J. Thomson había determinado la relación de la carga de un electrón con su masa (e/m)  y dedujo por electrólisis la carga sobre el ion de hidrógeno (un átomo de hidrógeno que ha perdido su único electrón), Millikan logró probar que, como era de esperar, la carga negativa sobre un electrón es de igual valor a la positiva que posee el ion de hidrógeno.

El experimento de Millikan consistía en inyectar gotitas de aceite con un pulverizador de perfume dentro del espacio comprendido entre dos placas metálicas paralelas y horizontales. Dichas placas se hallaban conectadas a los terminales de una fuente eléctrica de alta tensión, de tal manera que una de ellas estuviese cargada positivamente y la otra negativamente. Las gotitas eran iluminadas brillantemente (a través de un filtro que eliminaba el paso de rayos térmicos que de otra manera podrían establecer corrientes por convección) y las observó con un microscopio horizontal.

Al pasar por el chorro del pulverizador, la mayor parte de las gotitas se cargaban eléctricamente por la fricción. En otras palabras, cada gotita había ganado o perdido algunos electrones. Las que no lo habían logrado, podían ser cargadas con la ayuda de un haz de rayos X proyectado sobre ellas. Las gotitas, por estar cargadas, eran atraídas hacia arriba o hacia abajo por la plancha de carga contraria. Supongamos que era atraída hacia arriba. La fuerza de atracción se ajustó cuidadosamente regulando la tensión de la corriente aplicada, hasta que equilibraba exactamente el peso de la gotita.

En este caso, observada ésta al microscopio, pendía en el aire. La fuerza de atracción depende de la distancia que hay entre las placas, la tensión de la fuente eléctrica (ambas pueden medirse con facilidad) y la carga que posee la gotita.

En consecuencia, para una gotita estacionaria podrá calcularse la carga siempre que se conozca la masa. Hallar la masa de una sola gotita era lo más difícil del experimento. La masa de todo objeto es igual al producto del volumen por la densidad. Millikan logró hallar la densidad de un aceite determinado que usó en varias formas y pudo comprobar que las gotitas eran perfectamente esféricas.

El volumen de la esfera está dado por la fórmula 4.Pi.R3/3 donde r es el radio. En consecuencia, era necesario medir el radio de una gota para determinar su masa. Se equipó el ocular del microscopio con una escala, pero este recurso no resultaba realmente exacto para medir el ínfimo radio de una gotita.

Así, pues, Millikan tuvo que encontrar el radio apelando a un método indirecto. Desenchufó la corriente, de modo que la gotita se hundió por gravedad.

Con la ayuda de un cronógrafo midió la velocidad constante a que avanzaba ante su campo visual. Avanzaba a una velocidad fija debido a que su peso era equilibrado por la resistencia del aire por el cual caía. Existe una fórmula muy sencilla que relaciona la fuerza retardante (resistencia del aire) que actúa sobre una esfera que avanza constantemente, con su radio, la que suministró a Millikan el radio de la gotita que estaba investigando.

Al fin este investigador logró toda la información que necesitaba para medir la carga existente sobre una gotita de aceite. Entonces repitió el experimento centenares de veces y obtuvo gran cantidad de resultados diferentes. Esto no quiere decir que el experimento tuviese errores.

Era simplemente que las diferentes gotitas ganaban o perdían distintas cantidades de electrones. Todos los resultados demostraron ser simples múltiplos (entre 5 y 20 veces) de una carga básica. Esta carga básica resultó ser el máximo común múltiplo de cientos de resultados. No se encontró carga menor en los experimentos de Millikan ni en ninguno de los subsiguientes. Ésta es, en efecto, la carga soportada por un solo electrón. Cada electrón lleva precisamente esta cantidad de carga, ni más ni menos. Millikan ha medido con considerable exactitud una de las constantes fundamentales del Universo.

Roberto Millikan era estadounidense, nacido en Illinois en 1868. Después de cursar estudios en el Colegio de Oberlin, en la Universidad de Columbia. en Berlín y Gotinga, llegó a profesor de física de la Universidad de Chicago. En reconocimiento de sus trabajos sobre el electrón, recibió el Premio Nobel de Física en 1923. Inspirado maestro y autor en amplios temas científicos, Roberto Millikan falleció en 1953.

Experimento de Millikan con la carga del electron

ESTRUCTURA ELECTRÓNICA DEL ÁTOMO
Hasta el año 1914, mucho habían discutido los físicos y los químicos acerca de la imagen del átomo, que, evidentemente, ya no podía concebirse como la más pequeña partícula de ¡a materia que puede existir, sino como un verdadero edificio más o menos complicado.

Hoy se acepta universalmente la estructura enunciada por el francés J. Perrin (1901) expuesta claramente por el inglés Rutherford, y demostrada matemáticamente para algunos átomos, dando una acertada explicación de los espectros de emisión, por el danés Neis Bohr. Esta estructura, que se asemeja a un sistema planetario, considera dos zonas en el átomo: la cortical (externa) y el núcleo.

La zona cortical o externa del átomo está formada por “electrones”, corpúsculos cuyo peso es igual a 1/1.850 del peso del hidrógeno y giran alrededor de la parte central o núcleo.  El peso casi total del átomo está concentrado en el centro o núcleo del átomo, formado por protones y neutrones.

Fuente Consultada:
Revista TECNIRAMA N°56
El Estallido Científico en el Siglo XX Trevor Williams

Arquitectura de un ordenador Memoria Unidad de Control Dispositivos

Arquitectura de un Ordenador
Memoria-Unidad de Control-Dispositivos

Arquitectura de los ordenadores:
de una forma muy simple podemos decir que un ordenador consta de dos zonas fundamentales: la unidad central de proceso (UCP o CPU, según utilicemos las siglas castellanas o inglesas), que es la encargada de la ejecución de los programas, y varias unidades periféricas que permiten al ordenador comunicarse con el exterior, bien sea para capturar datos y mostrar resultados, o bien para almacenar la información.

Unidad central de proceso
El auténtico «cerebro» del ordenador es la unidad central de proceso (CPU), en torno a la cual se organizan los restantes elementos del sistema. En la CPU de los ordenadores convencionales suelen distinguirse tres zonas básicas:

Memoria principal
En ella se almacenan dos tipos de información: el programa o secuencia de instrucciones a ejecutar y los datos que manejarán dichas instrucciones. La memoria está constituida por un conjunto de células capaces de almacenar un dato o una instrucción. Con el fin de que la unidad de control pueda diferenciar a cada una de las células, éstas van numeradas; al número que identifica a una célula se le llama dirección.
Una vez determinada la dirección de una célula, se puede leer la información que contiene o escribir una nueva información en su interior. Para poder realizar estas operaciones la memoria dispone de dos registros especiales: el registro de dirección y el registro de intercambio de datos. Según se vaya a efectuar una operación de «lectura» o de «de escritura», se seguirán los siguientes pasos:

– Lectura
1 . Almacenar la dirección de la célula en la que se encuentra la información a leer en el registro de dirección.
2. Cargar en el registro de intercambio la información contenida en la célula apuntada por el registro de dirección.
3. Transferir el contenido del registro de intercambio al registro de la CPU que corresponda.

– Escritura
1. Transferir al registro de intercambio la información a escribir.
2. Almacenar la dirección de la célula receptora de la información en el registro de dirección.
3. Cargar el contenido del registro de intercambio en la célula apuntada por el registro de dirección.

Evidentemente, las operaciones de lectura no destruyen la información almacenada en la célula, cosa que, por el contrario, sí ocurre con las operaciones de escritura, ya que la destruyen al sustituirla por una nueva información.

Dentro de la arquitectura de todo ordenador cabe distinguir dos zonas básicas: la unidad central de proceso
y el conjunto de órganos periféricos. En la primera de estas zonas es donde residen las unidades
esenciales que permiten al ordenador realizar su trabajo: el tratamiento de la información
.

Unidad de control
Esta unidad es la que se ocupa de controlar y coordinar el conjunto de operaciones que hay que realizar para dar el oportuno tratamiento a la información. Su cometido obedece a las indicaciones contenidas en el programa; como resultado de su «interpretación», la unidad de control genera el conjunto de órdenes elementales que revertirán en la ejecución de la tarea solicitada. En líneas generales, su actuación se concreta en los siguientes puntos:

1. Extra de de la memoria .principal la instrucción a ejecutar. Para ello dispone de un registro denominado «contador de instrucciones» (o contador de programas), en el que almacena la dirección de la célula que contiene la próxima instrucción a ejecutar, y de un segundo registro «de instrucción» en el que deposita la instrucción propiamente dicha. Este último está dividido en dos zonas: una contiene el código de operación que identifica la operación a ejecutar (suma, resta…) y la segunda la dirección de la célula en la que está almacenado el operando.

2. Una vez conocido el código de la operación, la unidad de control ya sabe qué circuitos de la unidad aritmético-lógica deben intervenir, y puede establecer las conexiones eléctricas necesarias, a través del secuenciador.

3. A continuación extrae de la memoria principal los datos necesarios para ejecutar la instrucción en proceso; para ello simplemente ordena la lectura de la célula cuya dirección se encuentra en la segunda zona del registro de instrucción.
4. Ordena a la unidad aritmético-lógica que efectúe las oportunas operaciones elementales. El resultado de este tratamiento se deposita en un registro especial de la unidad aritmético-lógica denominado «acumulador».

5. Si la instrucción ha proporcionado nuevos datos, estos son almacenados en la memoria principal.

6. Por último, incrementa en una unidad el contenido del contador de instrucciones, de tal forma que coincida con la dirección de la próxima instrucción a ejecutar. Algunas operaciones, como, por ejemplo, las de bifurcación, se limitan a modificar el contador de instrucciones, de forma que la siguiente instrucción a procesar no sea la que se encuentra inmediatamente a continuación de la que está en curso.

Unidad aritmético-lógica
La misión de la unidad aritmético-lógica es operar los datos que recibe siguiendo las indicaciones dadas por la unidad de control. El motivo por el que a esta unidad se le otorga el nombre de «aritmético-lógica» es que puede realizar tanto operaciones aritméticas como operaciones basadas en la lógica Booleana. Para que la unidad aritmético-lógica sea capaz de realizar una operación aritmética, por ejemplo una suma, se le deben proporcionar los siguientes datos:

1. Código de operación que indique la operación a efectuar; en este caso sería el código de suma.
2. Dirección de la célula en la que se encuentra almacenado el primer sumando.
3. Dirección del segundo sumando.
4. Dirección de la célula en la que se almacenará el resultado.

Los bloques fundamentales que integran la unidad central de proceso del ordenador controlan, operan y coordinan la actividad del sistema que, en líneas generales, se resume en la lectura e interpretación de un programa almacenado y en su ejecución.

La memoria principal de un sistema ordenador almacena dos tipos de información: programas o conjuntos ordenados de instrucciones y datos. Las operaciones que se realizan sobre esta unidad se reducen a dos: lectura y escritura.

La unidad de control es el auténtico «cerebro» que controla y coordina el funcionamiento del ordenador. A raíz de la interpretación de las instrucciones que integran el programa, esta unidad genera el conjunto de órdenes elementales necesarias para que se realice la tarea solicitada.

La transferencia de informaciones entre el ordenador y los periféricos se realiza a través de determinadas unidades «adaptadoras» denominadas canales. Su capacidad para gestionar y controlar la transferencia de informaciones descarga a la unidad central de este tipo de tareas

Cabe observar que en el formato de instrucción que hemos considerado, solo se dispone de un código de operación y una única dirección de operando (en los ordenadores actuales los formatos de las instrucciones contienen toda la información necesaria).

El hecho de que esta instrucción tan condensada se traduzca en un proceso de suma se debe a que, al interpretar su código de operación, la unidad de control genera una secuencia de tres micro-instrucciones elementales que afectan al registro especial que hemos denominado «acumulador». En éste es donde se almacenan los resultados de las sucesivas operaciones. Las tres micro-instrucciones elementales que dan lugar a la operación suma -afectando a una sola dirección: el acumulador- son las siguientes:

a) Cargar el primer operando en el acumulador.
b) Sumar el segundo operando con el contenido del acumulador.
c) Cargar el contenido del acumulador en la dirección del resultado.

Unidades periféricas
Cabe distinguir dos grandes grupos de unidades periféricas. Las unidades de comunicación que permiten el diálogo con el exterior (de entrada o salida) y las memorias auxiliares que sirven para almacenar grandes volúmenes de datos de forma permanente/Como ejemplos tradicionales de periféricos de comunicación podemos citar el lector de tarjetas perforadas, el teclado, la impresora, la pantalla de operador… Y como ejemplo de memorias auxiliares, las unidades de disco y de cinta magnética.


Periféricos de Entrada Mas Usados

La comunicación entre los periféricos y el ordenador se realiza a través de los denominados «canales», que se ocupan de gestionar la transferencia de información.

En los ordenadores actuales, las transferencias a través de los canales se pueden simultanear con el desarrollo de un programa de cálculo, ya que el, canal sólo necesita la unidad periférica implicada en la entrada o salida y la dirección de la célula de la memoria principal en la que se leerá o escribirá la información.


Periféricos de Salida Mas Usados

El canal mantiene un contador con el número de informaciones a transferir, el cual le indica el trabajo que tiene pendiente; para ello, incrementa una unidad al contador cada vez que le llega una información para transferir y le resta una unidad cada vez que efectúa una transferencia. Cuando el contador esté a 0, el canal advertirá a la unidad de control que ha finalizado la transferencia de información.

REFORZANDO CONCEPTOS…

Circuito lógico: Conjunto organizado de componentes electrónicos que permite sintetizar funciones de variables lógicas.
Circuito integrado: Circuito en el que todos sus componentes están integrados en una sola pieza de material semiconductor.
Programa: Conjunto de instrucciones que al ser ejecutadas secuencialmente permiten la realización de una tarea.
Microprocesador: Un microprocesador es un circuito integrado capaz de ejecutar un programa, operando datos y controlando a las unidades implicadas.
Unidad central de proceso (CPU): Unidad que controla y coordina todas las actividades que lleva a cabo un sistema ordenador. En ella se realizan las operaciones de interpretación del programa y de tratamiento aritmético y lógico de los datos.
Microordenador: Sistema para el tratamiento de información cuya unidad central de proceso es un microprocesador.
Bit: Contracción de dígito binario (O ó 1), se utiliza para designar a la unidad elemental de información binaria.
¿Cuáles son las principales características de un microordenador?

Son sistemas orientados al tratamiento de la información de reducido tamaño y basados en un microprocesador.
¿Cuáles son sus unidades básicas?
El microprocesador que constituye la unidad central de proceso, la memoria encargada de almacenar instrucciones y datos, la unidad de entrada/salida que permite establecer las comunicaciones con los periféricos y los propios dispositivos periféricos.
¿Cómo se implementan las distintas unidades básicas de un microordenador?
Mediante varios circuitos integrados de alta escala de integración (LSI) o por medio de un único chip (microordenadores).
¿Cuáles son las unidades funcionales de un microordenador?
– CPU (microprocesador).
– Memoria.
– Unidades de entrada/salida.
– Periféricos.
¿En qué se diferencian las memorias de tipo ROM y RAM?
La memoria ROM sólo permite leer la información que almacena y suele estar grabar por el fabricante, mientras la memoria RAM permite tanto operaciones de lectura como de escritura y es utilizada libremente por el usuario.

Descargar Un Apunte Muy Completo Sobre Este Tema

Fuente Consultada:
Gran Enciclopedia de la Informática Tomo I
Cómo Son y Como Funcionan Casi Todas Las Cosas Reader´s Digest
Gran Enciclopedia Universal Tomo 26

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Historia de la Fisica Moderna Siglo XIX y XX Descubrimientos y Evolución

Historia de la Física Moderna – Siglos XIX y XX

fisica moderna

HISTORIA DE LA FÍSICA MODERNA – SIGLO XIX Y XX:  La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta. Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y la radiactividad,descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

En la época de la electrostática, ya se habían interesado mucho por los fenómenos que acompañan el paso de la electricidad a través de los gases. Después, cuando la antigua máquina de platillo fue reemplazada por la bobina de Ruhmkorff (1803-1877) y la ciencia del vacío se perfeccionó considerablemente gracias a los dispositivos que rehabilitaban la cámara barométrica y al gran empleo del mercurio, fue posible observar lo que pasaba cuando la descarga eléctrica se produjo en una atmósfera gaseosa rarificada.

Estaba reservada a sir William Crookes (1832-1919) realizar el más sensacional de los descubrimientos de su tiempo. Hábil experimentador, Crookes se dedicó a estudiar, a partir de 1878, el paso de la corriente por tubos en los que el gas se reducía a algunas moléculas. En estas condiciones, el interior de la ampolla no produce ninguna luz “mientras que sus paredes se iluminan con una viva claridad verde”. Tras una serie de ingeniosos experimentos, Crookes terminó por demostrar que se trataba de una irradiación particular emitida por el electrodo negativo o cátodo.

Esta irradiación se propaga en línea recta a través del tubo, hace luminiscentes y calienta los cuerpos sólidos que encuentra y hasta ejerce una presión sobre ellos. Todo sucede, en fin, como si unos corpúsculos lanzados a gran velocidad bombardeasen los cuerpos más próximos. A pesar de todas las ideas admitidas en su tiempo sobre la primacía de las ondas, Crookes tuvo la audacia de pensar que la luz verde que aparecía en las paredes de la ampolla no era otra cosa que un flujo de moléculas materiales lanzadas a gran velocidad. No se equivocaba más que sobre la dimensión de los proyectiles pero volvía a introducir en física una noción pasada de moda y ridiculizada: la emisión. ¿Se habría equivocado Newton?

Entre tanto, todos los laboratorios de Europa se proveían de ampollas de Crookes. Hacia 1880, demostró que los rayos catódicos—así se les llamaba entonces—atravesaban unas delgadas láminas de metal colocadas en su trayecto en el interior de la ampolla y en 1892 con;, guía Lénard hacerlos salir del tubo a la atmósfera sin otro artificio que el de practicar en la ampolla una ventanilla formada por una c; esas delgadas láminas de metal.

Esto equivalía a arruinar la hipótesis de la emisión ya que ningún bombardeamiento molecular podía jactarse de atravesar las paredes, pero ¿y si los proyectiles no eran moléculas? La cuestión quedó zanjada por un experimento decisivo realizado en 1895 por Jean Perrin, entonces preparador en el laboratorio de la Escuela normal superior. Perrin demostró que los rayos catódicos no son más que granos de electricidad negativa lanzados a gran velocidad a través de la ampolla vaciada. En otros términos: acababa de descubrirse el electrón.

En este mismo año 1895, Roentgen (1845-1923) se entregaba, por su propia cuenta, a experimentos sobre los rayos catódicos cuando, por casualidad, observó que el tubo de Crooke: emitía otro género de irradiaciones. Pues bien: se trataba de un hecho propiamente hablando escandaloso, ya que estos nuevos rayos se propagaban exactamente en línea recta, atravesando los cuerpos opacos y permitiendo fotografiar, a través de la carne, el esqueleto de un ser vivo.

Este descubrimiento estalló algo así comí una bomba en todos los laboratorios del planeta. No era difícil repetir el experimento: un tubo de Crookes, una bobina de inducción, una placa fotográfica envuelta en un papel negro. y una pantalla recubierta de una sustancia fluorescente. Se hicieron muchas radiografías ; no faltaron los “cobayas”. Había dos cosas absolutamente desconocidas a propósito de estar misteriosas radiaciones, a las que inmediatamente se las bautizó como rayos X: primero el tremendo peligro que entrañan por poco que uno se exponga a ellos con demasiado frecuencia. y después su origen. ¿Por qué parte del aparato eran emitidos?

El gran matemático Henri Poincaré expresó la idea que quizá la emisión de rayos X estuviera ligada a la fluorescencia del vidrio herido por los rayos catódicos. En esta teoría coincidían a la vez una verdad y un error; la pared de vidrio emite, en efecto, la misteriosa irradiación, pero esta emisión se opera sin conexión con la florescencia. La emisión la realizan tan bien o mejor cuerpos que no son en absoluto fluorescentes. Esta comprobación no parecía tener utilidad alguna, pero habría de llevar al descubrimiento de la radiactividad natural.

El 20 de enero de 1896, lunes, día de sesión en la Academia de Ciencias, Henri Poincaré mostró a sus colegas las primeras radiografías hechas en Francia y propuso la teoría antes aludida y según la cual el vidrio de la ampolla de Crookes, hecho fluorescente, había emitido rayos X. Si las cosas se desarrollaban así. sustancias naturalmente fluorescentes como, por ejemplo, el sulfato doble de uranio o de potasio, debían producir espontáneamente rayos X. Es lo que quiso averiguar Henri Becquerel (1852-1908).

Cogió un chasis opaco, de cartón negro, que contenía una placa fotográfica y dos láminas de sulfato doble de uranio y de potasio sujetas por unas tiras de papel. Entre una de ellas y el chasis colocó una moneda de plata y lo expuso todo a los rayos del sol. Al revelar la placa, Henri Becquerel comprobó que aparecían unas huellas correspondientes al emplazamiento de las láminas y de la moneda de plata que absorbían en parte las irradiaciones de las dos sustancias. ¿Quedaba confirmada la hipótesis de Henri Poincaré? ¡Quién sabe! En espera de que llegara un día soleado que tardaba en presentarse, Becquerel encerró todo su equipo en un cajón oscuro. Cuál no sería su sorpresa cuando el 1 de marzo de 1896 quiso asegurarse de que su placa fotográfica estaba todavía virgen.

Impulsado por no se sabe qué curiosidad, la desenvolvió y la encontró impresionada. Ante sus ojos extrañados aparecieron con toda claridad unas sombras que dibujaban las formas de las láminas y mostraban la radiografía de una cruz de cobre muy fina colocada sobre una de ellas. La sal de uranio emitía rayos X tanto en plena oscuridad como a la luz. La fluorescencia no intervenía para nada en el fenómeno. Con una intuición admirable, Becquerel pudo anunciar entonces el hecho de que se trataba de una propiedad atómica independiente de la composición química del elemento uranio.

Acogida al principio con reticencia, esta tesis fue confirmada en febrero del año siguiente por J. J. Thomson y por su joven ayudante Ernest Rutherford, quienes estudiaron también los “rayos uránicos”. Gradualmente se iba imponiendo la verdad: las sales de uranio eran una especie de ampollas de Crookes naturales aun cuando nadie sabía decir por qué.

En 1882, Pierre Curie (1859-1906) fue nombrado jefe de trabajos prácticos de la Escuela de física y química. En esta época, este gran científico y su esposa Marie (1867-1934) eran desconocidos del gran público, pero quienes estaban al corriente de los progresos de la física tenían ya a los dos esposos como unos genios. Fierre Curie se ocupaba de cristalografía cuando la señora Curie tuvo la idea de investigar las propiedades del uranio en los diversos compuestos de este elemento y en los minerales que lo contienen. Algunos de ellos demostraban una actividad mayor aún que la del uranio puro. No era difícil sacar la conclusión de este fenómeno: estos minerales debían contener un cuerpo desconocido más activo que el uranio.

Pierre Curie se dio cuenta inmediatamente de que sus trabajos sobre cristalografía podían esperar un poco y que convenía trabajar sobre los datos recogidos por su esposa. Poco después demostraba la señora Curie la existencia de un cuerpo nuevo: el polonio; después, los dos esposos redoblaron sus esfuerzos y pudieron anunciar, el 26 de diciembre de 1898, que habían descubierto un nuevo elemento que se desintegraba espontáneamente: el radio. Más aún. Pierre y Marie Curie pudieron establecer muy pronto que el radio se transforma en otros productos radiactivos como el helio, para terminar finalmente en un metal inerte, el plomo. Se había logrado una verdadera transmutación de elementos y este descubrimiento ha revolucionado el mundo.

En el terreno práctico, los resultados obtenidos por Fierre y Marie Curie iban a engendrar una muchedumbre de aplicaciones, sobre todo desde el punto de vista médico, pero hubo que esperar hasta 1912 para que se descubriera al fin en qué consistían los rayos X. Utilizando las redes de moléculas descubiertas por Bravais, cristalógrafo francés del siglo XIX, y cuyas dimensiones del orden de la diezmilésima de miera son lo suficientemente pequeñas como para difractar los rayos X, el físico alemán Max von Laue reconoció al fin que estos rayos pertenecen al mismo grupo que los rayos luminosos ordinarios de los que no se diferencian más que por la extraordinaria rapidez de sus vibraciones. Son, por así decirlo, hiperultravioleta, y en estas condiciones hubiera tomado nuevo vigor la tesis de las ondulaciones del éter si no hubiera descubierto Planck el fotón en 1898.

Ondas luminosas, rayos gamma y rayos X constituían, no cabía duda, emisiones de fotones. La inexistencia del éter y, por tanto, de sus vibraciones, había sido ya realmente demostrada mucho antes, gracias a un experimento magistral. En 1887 emprendió Michelson la tarea de demostrar el influjo de la translación terrestre sobre la velocidad de la luz. Algunos años antes, en 1881, el ingenioso experimentador había inventado un interferómetro de una precisión inigualada. Con ayuda de este aparato iba a poderse confirmar o destruir la existencia del éter.

En efecto, si este último es un medio estable que transmite los movimientos vibratorios, los de la onda luminosa o de la onda eléctrica, habría de poderse encomendar el movimiento de dos rayos de luz, uno de los cuales sería dirigido en el sentido de la traslación terrestre, el otro perpendicularmente al plano de este movimiento. O dicho de otra forma, habría de poderse demostrar el desplazamiento absoluto de nuestro globo a través del éter por el complemento de velocidad de que se beneficiaría une de los rayos luminosos. Ahora bien: la velocidad de la tierra es de unos 30 Km. por segundo, la de la luz de 300.000 Km. por segundo. Er. estas condiciones, el desplazamiento de las franjas luminosas de interferencia debía corresponder a la ínfima diferencia de una cienmillonésima, fracción que representa el cuadrado de la relación entre la velocidad de desplazamiento de la tierra y la velocidad de la luz.

Michelson, con ayuda de su colega Morley. realizó un ingenioso dispositivo compuesto de cuatro espejos, una fuente luminosa y el interferómetro de precisión de que hemos hablado antes. El resultado del experimento fue absolutamente negativo. El suplemento de 30 Km. por segundo no aceleraba en modo alguno el rayo luminoso que continuaba imperturbablemente su carrera a una velocidad normal de 300.000 kilómetros por segundo. No se necesitaba más para afirmar que no existía el éter. Y de ahí nació toda la teoría de la relatividad.

ALBERT Einstein (1879-1955) hay que considerarle ante todo como matemático, pero como la física es una ciencia que se matematiza cada vez más, la relatividad constituiría para ella una fuente de fecundas explicaciones. En primer lugar, como no puede encontrarse ningún punto fijo en todo el universo, había que admitir que el mundo en que vivimos está construido de tal forma que, en un sistema en movimiento, es imposible evidenciar el desplazamiento de ese sistema y a fortiori, la velocidad del mismo desplazamiento. A este postulado, o más bien axioma, puesto que parece evidente por sí mismo, añadía Einstein que, cualquiera sea el sistema en traslación a partir del cual se mida la velocidad de la luz, esta velocidad conserva siempre el mismo valor numérico.

En el campo de la astronomía, la introducción de un constituyente limitado en un todo que se creía infinito iba a imponer inmediatamente la noción de un universo cuyas fronteras, siempre móviles, han sido establecidas recientemente sobre la base de un radio de diez mil millones de años-luz. En física, había que concluir que la inexistencia del éter terminaba con las viejas leyes de la cinemática clásica y que la noción de espacio, tomada aisladamente, ya no tenía ningún sentido. Esto llevó a Einstein a la noción muy abstracta de continuum espacio-tiempo y a la aceptación por parte de los físicos de una hipótesis propuesta ya en el siglo pasado por Riemann y que negaba que el espacio fuese independiente de los fenómenos físicos que se desarrollan en él, lo que necesariamente hacía del tiempo una dimensión del espacio. La física nuclear ha demostrado en nuestros días que esta noción respondía a la realidad.

Sabemos experimentalmente que la energía posee una masa y que la masa se materializa en energía, principio expuesto por Einstein ya en 1905 y que se resume en esta fórmula clave de nuestro mundo moderno: E = mc2, en la que la energía equivale a la masa multiplicada por un factor correspondiente al cuadrado de la velocidad de la luz.

Los descubrimientos de Einstein no se agotan ahí. Aprovechando las conclusiones impuestas por unos experimentos realizados en 1903 con el tubo de Crookes, Einstein afirmará que la verdadera masa del electrón no es de naturaleza mecánica, sino de naturaleza electromagnética. En estas condiciones, los fenómenos electromagnéticos se imponían a todos los demás y sus leyes vendrían a constituir los principios básicos de la mecánica.

Con la formulación de la relatividad restringida se abre el camino a la tesis que Einstein desarrollará más tarde en forma de una teoría de la relatividad generalizada. Todo esto teniendo en cuenta el concepto del danés Bohr, quien en 1913 rechazará el electromagnetismo clásico en su concepción del modelo de átomo, lo que apunta claramente hacia el camino que más tarde conducirá a los físicos a considerar favorablemente la gran hipótesis del campo unitario. Al mismo tiempo, una nueva teoría tan desconcertante como la de la relatividad iba a dar al traste con la hermosa noción de continuidad, sobre la que descansaba la física clásica. Se trata, naturalmente, de la teoría de los quanta, formulada muy ingeniosamente hacia 1900 por el gran físico alemán Max Planck por razones puramente experimentales: la famosa emisión de luz por los cuerpos negros, verdadero rompecabezas para los físicos de la época.

Las teorías de Planck revisten un grado tal de abstracción que nos es imposible explicarlas aquí, porque se necesitaría todo un capítulo especial cargado de fórmulas y gráficos. Lo esencial es saber que, según Planck, toda especie de energía es de naturaleza discontinua. O dicho de otro modo: la luz o la electricidad no nos las proporciona la naturaleza en forma de flujo ni de fluido, sino, literalmente hablando, en pequeños paquetes: los quanta. Para no dejar nada al azar, Planck se tomó el cuidado de cifrar con la mayor exactitud las dimensiones de esos paquetitos. En unidad C. G. S., se expresa con el número cuasi infinitesimal de 6,55 X 10-27. No podría irse más lejos, y ésa es, en efecto, la medida exacta de un simple grano de energía simbolizada por la letra h, o constante de Planck.

Los intercambios de energía entre materia e irradiación se hacen, pues, por quanta. La irradiación tiene una estructura discontinua, lo mismo que la emisión, sobre todo la emisión de la luz. Se recordará que apoyándose en la teoría de los quanta descubrió Einstein en 1905 el fotón o grano de luz. Esto produjo un gran escándalo ya que venía a derribar los cálculos de los hombres de ciencia. Si la luz era una emisión de fotones y la electricidad una emisión de electrones, ¿cómo explicar la continuidad que es la ley de las ondas? La dificultad la resolvió en 1924 otro gran genio científico, Louis de Broglie, nacido en 1892 y Premio Nobel de física en 1929.

Como ha dicho él mismo, lo esencial era encontrar un sujeto al verbo ondular. Louis de Broglie pensó que ese sujeto tenía que ser el mismo electrón y no ese éter demasiado metafísico. “Si así fuera, dice el gran científico, habría que pensar que hay que imaginarse los corpúsculos materiales, especialmente el electrón, como acompañados, y en cierto sentido guiados, por una especie de onda”. Esta solución de compromiso es la base de la nueva doctrina llamada ondulatoria. Desde ese momento ya no existe el escándalo. “Hoy sabemos que el protón y los núcleos de los átomos, en los que están concentradas las cargas positivas de la materia, están también asociados a ondas… por lo que la barrera que, desde hacía tanto tiempo, separaba la física de las radiaciones de la física de la materia parece haberse derrumbado ya.” Así lo que quiere esta nueva doctrina de una abstracción impresionante. Desde ese momento, la realidad física va a volatilizarse en un “esquema matemático”, para servirnos de la expresión de Sommerfeld, y la ciencia, a medida que se va desarrollando, se alejará cada vez más del “antropomorfismo de la sensación”.

En 1897, el gran físico inglés Joseph J. Thomson (1856-1940). cuando estaba perfeccionado el experimento de Lénard (1885) sobre los rayos catódicos, descubrió que estos extraños rayos podían ser deflectados por medio de un electroimán. Calculó su velocidad y encontró que era muy próxima a los 300.000 Km. por segundo; después, suponiendo que estaban compuestos de corpúsculos, trató de estimar la masa y la carga de éstos. Pudo establecer que la relación de la carga a la masa de la partícula era una constante independiente a la vez de la naturaleza del gas contenido en la ampolla y del metal de los electrodos. “No veo, dice, forma alguna de escapar a la conclusión de que se trata de cargas de electricidad negativa transportadas por partículas de materia.”

Desde entonces pasó a ser de dominio público el término electrón. En 1909, Robert Millikan, profesor entonces de la Universidad de Chicago, acometió la tarea de demostrar experimentalmente la existencia y la naturaleza de la partícula. El dispositivo que inventó era de una genial sencillez: consistía en una cámara de niebla en la que unas gotitas de aceite en suspensión subían o bajaban según que obedeciesen a la simple gravedad o al impulso de un campo magnético variable. Un excelente aparato óptico permitía observarlas cómodamente. De cuando en cuando, una gotita cambiaba brutalmente de velocidad. ¿No sería porque había capturado un electrón? En este supuesto, como se conocía la masa de la gotita y la intensidad del voltaje, resultaba teóricamente posible deducir la carga del electrón y también su masa. Pero el electrón es tan pequeño que la gotita cargada con veintidós partículas se comportaba exactamente como si sólo estuviese cargada de una. Expresada en culombios, la carga de un electrón implica dieciocho ceros antes de la coma.

En cuanto a la masa, necesita veintisiete ceros antes del primer decimal. Puede suponer-se los esfuerzos que tuvo que hacer el ingeniero físico para llegar a esos resultados, pero de todas maneras, el electrón no era un mito, aun cuando, según la expresión del mismo Millikan, el radio de un cabello comparado con el de mi electrón sea aproximadamente diez mil millones de veces más grande.

El descubrimiento del protón no se realizó oficialmente hasta 1920, pero hacía ya mucho tiempo que rondaba la mente de los científicos. En 1886, el físico alemán Goldstein colocó en el centro  de un tubo de Crookes un ánodo constituido por un enrejado muy fino y no sólo pudo observar la aparición de rayos catódicos, sino también la de una radiación de un amarillo dorado claro que “penetrando el enrejado, llenaba todo el espacio entre el cátodo y la pared.“.

Esta radiación no era otra cosa que una emisión de protones, partículas nucleares cuyo peso es igual al de 1.840 electrones. La irradiación de Goldstein contenía núcleos de nitrógeno puro. Si el gas rarificado de su tubo hubiera sido de hidrógeno, su color hubiese sido rosa, verdoso o grisáceo si hubiese sido de óxido de carbono. En realidad, Goldstein no había hecho más que ionizar el gas de su ampolla, es decir descomponer los átomos de este gas en electrones (rayos catódicos) y en protones (rayos canales).

En 1910 volvió J. J. Thomson a hacer la experiencia y terminó por proyectar los misteriosos rayos canales sobre una pantalla fluorescente en la que producían unas escintilaciones del mismo tipo que las de los electrones.

Con ayuda de un electroimán, el experimentador podía deflectar la irradiación y reunir en una misma parábola las partículas del mismo peso atómico. Entonces se produjo la gran sorpresa. Thomson había utilizado el neón y descubrió que de su cátodo abierto se desprendía una doble radiación positiva. “No cabe duda de que lo que llamamos neón no es un gas simple, sino la mezcla de dos gases, uno de los cuales tiene un peso atómico 20 y el otro un peso atómico 22.” Sin darse cuenta, Thomson acababa de descubrir los isótopos que en 1920 separó entre sí su colaborador Aston con ayuda de su espectrógrafo de masa.

Entre tanto, el estudio de la radiactividad natural iba a llevar a los científicos a realizar una hazaña con la que habían soñado los alquimistas de la Edad Media. En 1903 habían demostrado sir Frederik Soddy y sir William Ramsay que la radiactividad del radio iba acompañada de un desprendimento de helio. En 1907, Rutherford pudo establecer definitivamente la identidad de la partícula alpha con el átomo de helio ionizado, es decir, privado de sus dos electrones satélites, o dicho de otra manera del helio.

En 1919, Rutherford concibió la excelente idea de bombardear átomos de nitrógeno con ayuda de helios que circulaban a gran velocidad y emitidos en forma de rayos alpha por una sustancia muy radiactiva. Observó que de esta forma el nitrógeno se transformaba en oxígeno. Por primera vez, se había roto un átomo y sus elementos constitutivos habían engendrado otro cuerpo simple. ¡La transmutación no era ya un sueño de alquimista! Rutherford había salido airoso donde Bacon y Paracelso habían fracasado.

En 1913 emprendió Niels Bohr (1885-1962) la tarea de cuantificar el átomo. Adoptando el modelo de Ernest Rutherford y Jean Perrin, en otros términos, conservando las órbitas keplerianas circulares como trayecto ideal de los electrones, se dedicó a establecer un valor matemáticamente riguroso de todos los estados posibles de estas partículas ínfimas. Demostró sobre todo que pasando de un estado estacionario n1 a otro estado estacionario n2, el electrón emite un quantum de energía. Acababa de desvelarse el misterio de la electricidad. La experiencia no tardó en confirmar la exactitud de esta aplicación genial de las teorías de Planck. Pero como las órbitas circulares de los electrones presentaban serios inconvenientes, Sommerfeld reanudó en 1916 el trabajo de Bohr dando una forma elíptica a estas órbitas y utilizando los principios de la relatividad para tratar del movimiento de los electrones sobre sí mismos.

Dejemos ya el terreno de la pura teoría para volver a la desintegración del átomo. El principio según el cual se da cierta disipación de masa en algunos bombardeos atómicos, y esto en las condiciones previstas por Niels Bohr y Sommerfeld, iba a conducir a los científicos hacia una pista al mismo tiempo gloriosa y peligrosa. Hacia 1930 se advirtió que cuando se efectuaba una transmutación se liberaba una gran cantidad de energía. En efecto, los núcleos de los elementos formados tienen una masa menor que la de los elementos constitutivos.

Por tanto, hay algo que se disipa durante el proceso. Y si la pérdida de masa equivale al aniquilamiento de un solo gramo de materia, la energía liberada es igual a una cantidad de calor suficiente para hacer hervir instantáneamente 200 millones de litros de agua. En cierto sentido , no había en ello nada de nuevo, ya que no era más que la aplicación de la célebre fórmula de Einstein E = mc2.

Todavía faltaba por encontrar el proyectil que pudiera producir desintegraciones eficaces. Los alemanes Bothe y Becker y los franceses Frederic Joliot e Irene Joliot-Curie estudiaron la desviación sufrida por los rayos alpha cuando atraviesan delgadas capas de materia, y se observó que las partículas alpha que bombardean un metal ligero pero resistente, el berilio, originaban una irradiación paradójica, capaz de romper las más fuerte barreras de potencial y “de moverse libremente a través de la materia”, como había predicho Rutherford en 1920. Entonces fue cuando James Chadwick pudo precisar en 1932 que esta irradiación debía estar constituida por partículas neutras de masa próxima a la del protón. Estaba descubierto el neutrón, la bomba atómica y la energía nuclear vendrían más tarde.

Entre tanto se había inaugurado la era de los desintegradores de átomos. Pretender alcanzar los núcleos atómicos con corpúsculos alpha, como lo habían hecho el matrimonio Curie y James Chadwick, equivalía a “disparar con carabina sobre cabezas de alfiler sembradas de 10 en 10 metros”. Por supuesto que podían reemplazarse estos corpúsculos alpha por protones, pero, ¿cómo imprimir a éstos una velocidad suficiente? Desde 1931 había en la Universidad de Princeton un generador electrostático inventado por Robert van de Graaff y cuyo principio no difiere sensiblemente del de la máquina deWimshurst.

La aceleración de los protones se produce con ayuda de un transformador de alta tensión, situado en la base del aparato y que alimenta un peine que deposita sobre una correa que desfila bajo sus dientes cargas eléctricas que, transportadas hacia la parte superior del aparato, son recogidas por un peine colector. De esta forma se crea entre la base y la parte superior del dispositivo una diferencia de potencial de 80.000 V. en el primer modelo y llegó a 6 millones de voltios en las bombas del gigante instalado en Round Hill algunos años más tarde.

Ya en 1930, Ernest Orlando Lawrence había realizado otro aparato que habría de destronar poco a poco a los grandes aceleradores lineales: el ciclotrón. El principio es bastante simple: en el centro de un recipiente cilíndrico en el que unas bombas producen un vacío lo más perfecto posible se inyectan partículas atómicas bajo débil energía. Se coloca entre los polos de un electroimán, lo que engendra en su interior un campo magnético intenso.

Las partículas comienzan a girar en círculo, aceleradas a cada vuelta por los electrodos elevados a potenciales de muy alta frecuencia. Atraídas de un electrodo a otro, las partículas describen así una espiral a una velocidad creciente. Finalmente son desviadas hacia un blanco que contiene la sustancia que ha de ser bombardeada y desintegrada: berilio por ejemplo. Nuestros ciclotrones actuales permiten acelerar partículas a velocidades próximas a la de la luz y disponen así de energías suficientes para romper cualquier núcleo de átomo.

En 1932 no podía pensarse aún en estos esplendores. John D. Cockcroft y E. T. S. Walton, en el laboratorio Cavendish, tuvieron que contentarse con un duplicador de voltaje de 150.000 V. A fuerza de ingeniosidad consiguieron obtener 700.000 V. y terminaron por desintegrar núcleos de litio en dos helios, utilizando como proyectiles protones acelerados.

Gracias a la cámara de niebla inventada por C. R. F. Wilson entre 1899 y 1912, las partículas resultantes de la desintegración del litio pudieron ser localizadas por los experimentadores. Todos los manuales de física han reproducido el cliché de la desintegración del litio por Cockcroft y Walton. Todavía hoy nos impresiona este auténtico documento histórico.

El neutrón fue identificado en 1932 por Chadwick. lo que algunos años después permitiría la fisión nuclear. Había nacido un nuevo modelo de átomo. Todo núcleo aparecía como constituido de nucleones, es decir, de partículas positivas: los protones, y de partículas neutras: los neutrones. En torno a este agregado increíblemente denso de nucleones gravitan los electrones satélites cuyas cargas negativas, al menos en un átomo en equilibrio, equivalen rigurosamente a la suma de las cargas positivas de los protones. Sucesivamente, el núcleo del átomo se iría enriqueciendo con partículas ligeras: mesones, neutrinos, etc., sin hablar de las partículas de antimateria de que se hablará más adelante.

Volviendo a la fisión nuclear, el proyectil ideal resultaría ser el neutrón y el blanco elegido el uranio. El 14 de abril de 1934, Enrice Fermi descubrió que los neutrones ralentizados en la parafina provocan otras desintegraciones en el interior de otros átomos. Para llegar a la desintegración en cadena había que frenar la velocidad de los neutrones, transformarlos en neutrones térmicos. Esa es la misión del grafito y del agua pesada; pero no adelantemos los acontecimientos. El 15 de enero de 1934, los esposos Joliot-Curie provocaron la estupefacción de la Academia de Ciencias anunciando que acababan de descubrir la radiactividad artificial. Gradualmente se iban dando los pasos hacia la comprobación de que es posible introducir neutrones suplementarios en el interior de los núcleos y hacer fuertemente radiactivo un inocente fragmento de fósforo, de carbono o de cobalto. Habían nacido los radioisótopos y todo el mundo sabe lo mucho que se los utiliza en medicina y en industria.

No era eso sólo. En 1939 estalló una verdadera bomba en el mundo de la ciencia: Otto Hahn, Lisa Meitner, Strassmann y Frisch habían descubierto que el núcleo del uranio convenientemente bombardeado con neutrones se-rompe en dos liberando una energía de 100 millones de voltios. En su comunicación a la revista británica Nature del día 16 de enero, Lisa Meitner explicaba que, al igual que la gota de agua que ha ido creciendo, el núcleo de uranio no podía ya resistir y… explotaba.

Lo que ha sucedido después es ya del dominio público. No hablaremos de la batalla del agua pesada ni de la angustiosa rivalidad que enfrentó durante cinco años a los Aliados y al III Reich. Recordemos simplemente que a comienzos de 1940, el ingeniero Nier separaba, en la Universidad de Minnesota, del uranio-238 su precioso isótopo, el uranio-235; por supuesto que a una escala infinitesimal. Y que en 1941, el ilustre Fermi, premio Nobel de 1938, se instalaba en Chicago en donde montaba su primera pila atómica, que comenzó a “diverger” el 2 de diciembre de 1942, produciendo por primera vez dos elementos transuranianos: el neptunio y el plutonio, que ya en 1940 habían descubierto McMillan y Seaborg.

Recordemos también el famoso Manhattan Project, la primera explosión atómica del 16 de julio de 1945 en Alamogordo, y finalmente, las hecatombes nucleares de Hiroshima y Nagasaki, los días 6 y 9 do agosto de 1945. Como instrumento de muerte repentina, la bomba A era ya aceptablemente eficaz, pero más lo seria la bomba H “encendiendo sobre la tierra el fuego del sol y de las estrellas”.

He aquí algunas explicaciones. Ya en 1934, algunos científicos habían reconocido el principio de la fusión del hidrógeno en helio, como fuente posible de energía. Una simple sustracción bastaba para demostrar que la reacción: 2/H + 2/H = 4/2 He  era “viable”. En efecto, dos núcleos de hidrógeno pesado dan en conjunto 4,02516 unidades de masa mientras que el núcleo de helio que resultará de su “fusión” no tiene más que 4,00390. Hay, pues, un excedente de materia; 0,02126 unidad de masa y este excedente se traduce en una liberación de energía correspondiente a 500.000 KW/h. por cada molécula-gramo de helio.

Como esta reacción parecía más bien del dominio de un porvenir muy lejano, nadie habla de ella antes de 1950, excepción hecha del físico Vienes Hans Thirring, quien en 1946 la consagró un estudio bastante notable. En noviembre de 1952, el mundo quedó aterrado al saber que una bomba termonuclear de al menos 7 megatones había estallado en Eniwetok, haciendo desaparecer una isla de la superficie del mar y cavando en su lugar un embudo de 2 Km. de diámetro y 60 m. de profundidad. Después vino la demostración del 1 de marzo de 1954, en la que cinco pescadores japoneses fueron contaminados por la caída del polvo radiactivo (lluvia radiactiva). ¿Esta “Kraftprobe” tuvo el mérito de poner a científicos e ingenieros sobre la pista de un tipo de reactor más rentable que los de uranio que surgen por todas partes propulsando incluso submarinos y rompehielos atómicos? Sólo el futuro nos lo dirá.

La mayor dificultad que hay que vencer es la obtención de una temperatura llamada de fusión del orden de varios centenares de millones de grados; una proeza que es realizable durante una fracción de segundo, por medio de una prebomba de uranio, pero de la que todavía no son capaces ni la ingeniosa Zeta británica ni el extraordinario Slellarator americano.

Sin embargo, los métodos de “striction” y de “confinamiento” de un plasma que consiguen ya de 2 a 3 millones de grados no han dicho su última palabra, aun cuando los progresos hayan sido muy lentos desde 1958.

Volviendo ahora a la física pura, la encontraremos esencialmente ocupada en explorar este mundo extraño que es el núcleo del átomo y esa verdadera fantasmagoría que es la materialización de la energía. ¿Cómo explicar la paradójica densidad del “nucleus” y de las fuerzas que dan cohesión a los nucleones? Nada permite pensar que sean de naturaleza eléctrica.

Cuando en 1935 emitió el físico japonés Yukawa la hipótesis de un intercambio de mesones entre los protones y los neutrones de un núcleo, se vio obligado a admitir que estas partículas debían tener una masa 200 veces mayor que el electrón, pero que su “vida” era muy breve, de apenas una millonésima de segundo.

En mayo de 1937, el estudio de los rayos cósmicos en la cámara de Wilson revelaba la existencia de dos mesones, el segundo de los cuales asegura la cohesión de los nucleones entre sí, mientras que el primero parece escaparse por la banda dando nacimiento a un electrón. Diez años más tarde, durante el invierno 1947-1948, el gran sincrociclotrón de la Universidad de Berkeley consiguió producir mesones ir cuya trayectoria terminaba, sobre la placa fotográfica, en una soberbia estrella, prueba de que el mesón había encontrado un núcleo y que lo había hecho estallar.

¿Qué había sucedido? Entonces surgió la pregunta de si no se habría producido algo más y de si la violencia de la explosión no supondría la presencia de una de esas antipartículas que, por simples deducciones matemáticas, había previsto el físico inglés Pirac en una nota dirigida a la Sociedad Real de Londres con fecha 6 de diciembre de 1929.

La ecuación era tentadora. Podría representársela así:

en la que ¶ es un mesón pesado o, como se dice técnicamente, un hiperón, N un nucleón cualquiera, p un protón normal, es decir positivo, y p´ un protón negativo o antiprotón. Por supuesto que el par p y p´ no podían subsistir juntos sino que se aniquilaban recíprocamente.

En 1935 hubo quien pensó que el intermedio del mesón ¶ no hacía más que complicar las cosas y que, si se dispusiera de unos seis mil millones de electrones-voltios, quizá se pudiera crear directamente un “par” conforme a la fórmula siguiente:

Esta fórmula fue realizada en el laboratorio de Berkeley el 24 de octubre de 1955.

En el estudio de la radiación cósmica, fue una primera figura mundial el meteorólogo español A. Duperier, quien descubrió el “efecto positivo” de la radiación y contribuyó con una de las más importantes aportaciones al campo de la física en los últimos años con el cálculo de los fenómenos de interacción entre las partículas dotadas de altísima energía, y sus trayectorias, que expuso en el Congreso Internacional de Edimburgo de 1958. El descubrimiento del antineutrón, aunque erizado de dificultades, pudo realizarse en una fecha difícil de determinar.

En cuanto al electrón positivo o antielectrón, había sido descubierto antes de la segunda guerra mundial, ya que la obtención de un par (e y é) no exigió más que una energía relativamente baja, del orden de 1.0 millón de electrón-voltios aproximadamente.

El neutrino y el antineutrino han venido a completar la serie de los leptones o partículas ligeras. Atisbado unos veinticinco años antes por el físico Pauli, el neutrino no fue descubierto hasta 1958 gracias a los escintiladores instalados en Savannah River.

¿El neutrino es la partícula que, en el campo gravitatorio, corresponde al electrón en el campo electromagnético? Quien viva lo verá. Entre tanto, los físicos trabajan a contra reloj para descifrar los secretos de la materia y de la antimateria. Enormes aparatos han entrado en funcionamiento, especialmente el gran sincrotrón de protones del CERN (Centro Europeo de Investigaciones Nucleares). En 1961. este instituto procedió a millares de experimentos y tomó millón y medio de clichés que están actualmente en proceso de análisis.

Parece que se trata sobre todo de estudiar las interacciones de altas energías que implican las diversas especies de mesones, ya que ahí es donde en definitiva reside el secreto del átomo y del antiátomo. ¿Hacia dónde se encamina la física? El eminente científico francés Leprince-Ringuet confiesa que no sabe nada al respecto. “Os diré únicamente, declaraba, que estamos trabajando pero sin saber exactamente lo que vamos a hacer y, en el fondo, eso es lo agradable.”

Naturaleza de la Materia                                   Concepto Descriptivo Sobre la Conservación de la Energía

El desarrollo cientifico y grandes inventos en el siglo XX Carrera Espacial

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta “transmutación” posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

Bioimpresoras 3D Impresion de Organos Humanos Medicina Regenerativa

IMPRESORAS DE TECNOLOGÍA 3D: Estas impresoras pueden formar un objeto determinado siguiendo las instrucciones de un plano el cual le indica las tres dimensiones, es decir, largo, ancho y alto. Hacen mucho tiempo que existen pero hoy son una novedad por su maravillosas aplicaciones, su rapidez y precisión, a al vez que los precios la han hecho populares en los países desarrollado. Los críticos dicen que provocarán una nueva revolución industrial.

Fueron pensadas  para los viajes espaciales, en donde se necesita viajar liviano y por lo tanto es imposible llevar una cantidad grande de repuestos. Suponiendo que una pieza quede fuera de servicio, solo debe enviar los datos técnicos o plano de dicha pieza, y la impresora 3D se encarga del resto, pues en poco tiempo moldea otra pieza similar de iguales características.

Actualmente para hacer piezas de revolución como por ejemplo un engranaje, se utiliza un torno mecánico y una fresa, en donde se coloca un trozo de materia virgen y mediante una herramienta se va retirando material (mientras gira) hasta obtener la pieza final. Si se quiere algo mas romántico puede asemejarse con el trabajo de un artista cuando esculpe una roca para lograr su obra final, como dijo Miguel Ángel, solo me dedicado a sacar lo que sobraba, cuando creó La Piedad.

En el caso de estas impresoras el sistema es inverso, se van sumando capas de material hasta obtener el producto requerido según las indicaciones del plano, de ahí que también se llama tecnología de manufactura aditiva.  Han generado tanto expectativas que ya en la Argentina ya hay al menos tres firmas que están fabricando y vendiendo sus propias impresoras 3D.

En realidad por extensión se sigue utilizando el término “impresión”, pero en realidad lo que se obtiene es un objeto de tres dimensiones, es decir que estás máquina crean cuerpos o volúmenes y el término impresión debería se reemplazado por otro mas adecuado, como por ejemplo: generar, crear, fabricar.

En mayo pasado un estudiante estadounidense  presentó Liberator, una pistola con 15 piezas compuestas por capas de plástico ABS, fabricadas en una impresora 3D. La restante pieza de hierro le da sentido al mecanismo, cuyo éxito se puede ver en video en Internet que busca generar conciencia en un país que aun se debate por la legalidad de la tenencia de armas de fuego. Apenas dos semanas después, la NASA anunció un proyecto de 100.000 euros, llamado Anjan Contractor, para profundizar el desarrollo para imprimir comida para sus astronautas.

En Argentina ya hay empresas dedicadas (Kikai Labs), a estudiar la aplicación de esta tecnología en los mas variados campos posibles, pero hay uno en que se tiene especial interés, cuya primera etapa podría decirse que ya está superada y consiste en crear (imprimir) prótesis para colocar en el cuerpo humano.

2.200. U$s es el precio promedio con que se pueden conseguir una impresora de este tipo para uso casero. Más allá del análisis sobre la ética de los derechos de autor, hoy se puede “imprimir” en un hogar una pieza averiada de una cafetera, o cualquier elemento de un artefacto hogareño. Los planos se descargarán desde Internet.

En traumatología ya experimentan con rodilla y caderas de titanio, mientras que entre los dentistas empieza a ser una práctica habitual reemplazar los moldes para las coronas o las placas de ortodoncia por la variante 3D, tanto en plástico como en cerámica. “Imprimir una prótesis no tiene mucha diferencia con imprimir un objeto de diseño, una silla o una mesa. En el fondo, es colocar material en una configuración determinada por el programa digital.

LA IMPRESORAS 3D Y LA “IMPRESIÓN” DE ÓRGANOS: El cirujano peruano Anthony Átala, Director del Instituto Wake Forestde Medicina Regenerativa, sorprendió al mundo científico el 3 de marzo de 2011, cuando presentó el primer riñón humano surgido en una tecnología de impresión 3D. No estamos hablando de un órgano de plástico, resina o aleaciones minerales, sino formado por células vivas.

Lejos de tratarse de una cruzada individual, hay toda una industria en ciernes en torno a labioimpresión. La empresa estadounidense Organovo fue la primera en comercializar una máquina, laNovo Gen MMX y un gigante del mercado farmacéutico mundial como Pfizer ha confiado en su capacidad para reproducir tejidos, cartílagos y hasta tumores. Similares avances se producen en Inglaterra (tejidos con capacidad para imitar nervios y transmitir señales eléctricas, en la Universidad de Oxford) y en Rusia (buscan la producción en masa de hígados y riñones, en Skolkovo).

La tecnología avanza sin siquiera dejar tiempo al posible debate bioético que se abre. “En el mundo hay una crisis enorme por la falta de órganos. Es un hecho que el hombre ahora vive más. La medicina ha hecho un esfuerzo para lograrlo y así estamos ahora. Pero también es cierto que a medida que envejecemos, lo mismo sucede con nuestros órganos, que empiezan a fallar.

Por lo tanto, no hay suficientes órganos para trasplantar y cubrir las necesidades de la gente. Es por eso que aparece en escena el campo de la medicina regenerativa”, expuso Átala en su mencionada conferencia, sin que surgieran voces para refutarlo.

Actualmente se vive una crisis de órganos para transplantar, pues la demanda se expande día a día, y no se alcanza a cubrir la necesidades de los afectados. Mediante esta tecnología, conocida como medicina regenerativa, se podrá conseguir órganos en corto plazo, creados a partir de una célula madre del paciente.

Las impresoras 3D constituyen uno de los mejores ejemplos de materialización de la revolución tecnológica esperada a partir de las tecnologías de convergencia, resultado de la interacción dinámica entre la nanotecnología, la biotecnología, la informática y la cognotecnología.

En las máquina se colocarán células madres, de origen embrionario, adecuadamente preparadas y se le dará la información necesaria para iniciar el proceso de creación de órgano deseado. Supongamos la necesidad de reparar una zona del cerebro dañada por un ACV.

 En un cartucho podría colocar el preparado de células adultas y los factores necesarios para que luego en el tejido se conviertan en neuronas, en otro cartucho colocaría nanotubos de carbono para integrarlos al tejido de modo de favorecer la conducción nerviosa hasta que en sistema neuronal se consolide.

Además, la impresora 3D ocupará un lugar destacado en un contexto productivo en el cual se pretende reemplazar a las fábricas químicas consumidoras de combustibles fósiles por biofábricas transgénicas celulares, fotosintéticas y catalizadas por enzimas, basadas el la utilización de la ingeniería genética y de los 65 millones de genes conocidos en la actualidad para producir sustancias químicas en general, alimentos y biocombustibles.

“Imprimir un órgano es como construir un enorme rascacielos pero a nivel microscópico,
utilizando diferentes tipos de células y otros materiales, en lugar de vigas de acero, hormigón y vidrio.”
Makoto Nakamyra, bioingeniero de la Universidad de Toyama» Japón.

CÉLULAS MADRES: En muchas ocasiones las enfermedades diezman las células de un tejido (así sucede, por ejemplo, con la enfermedad de Huntington y el Alzheimer). Y hasta hace poco no se tenían esperanzas de poder recuperar esas vitales células perdidas. Las células madre, de las que tanto se habla últimamente, han cambiado esta triste situación, arrojando un informado rayo de esperanza. Para entender qué son las células madre hay que saber, en primer lugar, que muchas de las células —los «átomos» de la vida, de la humana  ciertamente (se conocen 216 tipos diferentes de células humanas)— del cuerpo sólo son capaces de reproducirse a sí mismas: una célula hepática, por ejemplo, sólo produce células hepáticas, pero nace a partir de una célula madre del embrión. Por eso actualmente se conserva la placenta del recién nacido a los efectos tener la posibilidad en el futuro de conseguir una célula madre en caso de se necesaria para fabricar un órgano determinado.

 

USO DE LAS IMPRESORA DE TECNOLOGÍA 3D
Objetos Se pueden crear y reproducir objetos en materiales plásticos con altísima resistencia y máxima precisión. Hay bases de datos privadas, como Thingiverse, con 36.000 diseños originales para descargar de Internet, así como también del otro lado se vislumbra un posible nuevo frente de conflictos por patentes y propiedad intelectual, como ocurre con la música y las películas. Asimismo, se reconfigura la relación del diseñador industrial con su creación, al mismo tiempo que se pueden “imprimir” objetos a gran escala como turbinas y edificios, entre otros.
Alimentos La empresa estadounidense Modern Meadowya avanzó sus investigaciones para generar una hamburguesa en base a células vivas generadas de manera artificial. De manera paralela, el proyecto de nutrición para astronautas que encara la NASA, mezclando componentes universales, abre un mundo nuevo en cuanto a la geometría de la comida: los sabores ya no tendrán que corresponder con las formas y colores que conocemos.
Medicina La impresión en materiales sintéticos abre posibilidades para prótesis traumatológicas y se usa desde hace rato en la odontología en los países avanzados. Hace dos años se presentó en sociedad el primer riñón impreso en base a células vivas, mientras se desarrollan investigaciones similares en EE.UU., Rusia e Inglaterra sobre la reproducción de tejidos y piel humanos.
Agro Más allá de la “facilidad” con la que se podrá generar comida, no se vislumbran cambios dramáticos en el sistema de producción agropecuario. En cambio, la progresiva impresión de objetos en materiales más allá del plástico les dará a pequeños productores la posibilidad de construirse sus propias máquinas y tractores. Un movimiento que se llama “ecología a código abierto”.

Un paradigma: medicina regenerativa o ingeniería de tejidos y el desarrollo de órganos artificiales más que una moda. Es a tendencia biomédica que extiende por el mundo. En Inglaterra, el bioingeniero Martín Wickham, del Instituto de Investigación Alimenta-, creó un estómago artificial capaz de simular la gestión humana: imita tanto las reacciones físicas como ; químicas que tienen lugar durante este proceso. La doctora Hung-Ching Liu de la Universidad de Cornell ultima los detalles del prototipo de un útero artificial donde un embrión humano pueda desarrollarse fuera del cuerpo de su madre. Y el profesor Jake Barralet de la Facultad de Odontología de la Universidad McGill en Montreal, Canadá, en cambio, es conocido por su obsesión por imprimir huesos.

1938: El biólogo francés Alexis Carrel publicó su libro El cultivo de los órganos, en el que ideó algunas de las mismas tecnologías utilizadas hoy para suturar vasos sanguíneos.

Años 90: El estadounidense Robert Langer hizo sus primeros aportes en el nuevo campo de la ingeniería de tejidos: creó piel humana para tratar a las víctimas de quemaduras, médula espinal para combatir parálisis, cartílagos y huesos artificiales.

1999: Se estrenó la película El hombre bicentenario. El protagonista -el robot Andrew (Robin Williams)- diseña prótesis de órganos para robots que también pueden ser utilizadas por seres humanos.

2001: Anthony Átala trasplantó con éxito en seres humanos vejigas sintéticas cultivadas en laboratorio.

2003: Thomas Boland, de la Universidad Clemson, modificó unas impresoras de chorro de tinta para imprimir proteínas con patrones especiales. “Este avance científico podría tener el mismo tipo de impacto que tuvo la imprenta de Gutenberg”, dijo en su momento su colega Vladimir Mironov.

2008: El biofísico Gabor Forgacs logró imprimir venas humanas a partir de células de pollo.

2011: Paolo Macchiarini, del Hospital Universitario Karolinska, en Suecia, implantó una tráquea sintética en un hombre con cáncer traqueal avanzado.

2025: En ese año se sitúa la película Repo Men (2010). Cuenta la historia de dos oficiales encargados de reclamar órganos artificiales que no han sido pagados por sus usuarios. Estas creaciones recuerdan a los artiforgs u órganos artificiales imaginados por Philip Dick en sus novelas Cantata-140 (1964) y Ubik (1969).

Fuente Consultada:
Basada en la Información de Revista “El Federal”
Todo lo que necesita saber sobre ciencia Federico Kurko

Ideas de Hawking Sobre El Universo Fisica Clasica y Cuantica Teoria

Ideas de Hawking Sobre El Universo: Física Clásica y Cuántica
Las Teorías Moderna de la Física

¿Juega Dios a los dados?
(Conferencia de Hawking)

Conferencia de Hawking Sobre Fisica Clasica y Cuantica Esta conferencia versa sobre si podemos predecir el futuro o bien éste es arbitrario y aleatorio. En la antigüedad, el mundo debía de haber parecido bastante arbitrario. Desastres como las inundaciones o las enfermedades debían de haber parecido producirse sin aviso o razón aparente.

La gente primitiva atribuía esos fenómenos naturales a un panteón de dioses y diosas que se comportaban de una forma caprichosa e impulsiva. No había forma de predecir lo que harían, y la única esperanza era ganarse su favor mediante regalos o conductas.

Mucha gente todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto con la fortuna. Se ofrecen para hacer ciertas cosas a cambio de un sobresaliente en una asignatura, o de aprobar el examen de conducir.

Sin embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades en el comportamiento de la naturaleza. Estas regularidades eran más obvias en el movimiento de los cuerpos celestes a través del firmamento. Por eso la Astronomía fue la primera ciencia en desarrollarse.

Fue puesta sobre una firme base matemática por Newton hace más de 300 años, y todavía usamos su teoría de la gravedad para predecir el movimiento de casi todos los cuerpos celestes. Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos naturales también obedecían leyes científicas definidas.

Esto llevó a la idea del determinismo científico, que parece haber sido expresada públicamente por primera vez por el científico francés Laplace. Me pareció que me gustaría citar literalmente las palabras de Laplace. y le pedí a un amigo que me las buscara. Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera ningún problema con esto.

El problema es que Laplace, como Prewst [N. del T.: Hawking probablemente se refiere a Proust], escribía frases de una longitud y complejidad exageradas. Por eso he decidido parafrasear la cita. En efecto, lo que él dijo era que, si en un instante determinado conociéramos las posiciones y velocidades de todas las partículas en el Universo, podríamos calcular su comportamiento en cualquier otro momento del pasado o del futuro.

Hay una historia probablemente apócrifa según la cual Napoleón le preguntó a Laplace sobre el lugar de Dios en este sistema, a lo que él replicó “Caballero, yo no he necesitado esa hipótesis”. No creo que Laplace estuviera reclamando que Dios no existe. Es simplemente que El no interviene para romper las leyes de la Ciencia. Esa debe ser la postura de todo científico. Una ley científica no lo es si solo se cumple cuando algún ser sobrenatural lo permite y no interviene.

La idea de que el estado del universo en un instante dado determina el estado en cualquier otro momento ha sido uno de los dogmas centrales de la ciencia desde los tiempos de Laplace. Eso implica que podemos predecir el futuro, al menos en principio. Sin embargo, en la práctica nuestra capacidad para predecir el futuro está severamente limitada por la complejidad de las ecuaciones, y por el hecho de que a menudo exhiben una propiedad denominada caos.

Como sabrán bien todos los que han visto Parque Jurásico, esto significa que una pequeña perturbación en un lugar puede producir un gran cambio en otro. Una mariposa que bate sus alas puede hacer que llueva en Central Park, Nueva York. El problema es que eso no se puede repetir. La siguiente vez que una mariposa bata sus alas, una multitud de otras cosas serán diferentes, lo que también tendrá influencia sobre la meteorología. Por eso las predicciones meteorológicas son tan poco fiables.

A pesar de estas dificultades prácticas, el determinismo científico permaneció como dogma durante el siglo 19. Sin embargo, en el siglo 20 ha habido dos desarrollos que muestran que la visión de Laplace sobre una predicción completa del futuro no puede ser llevada a cabo.

Simón LaplaceEl primero de esos desarrollos es lo que se denomina mecánica cuántica. Fue propuesta por primera vez en 1900, por el físico alemán Max Planck, como hipótesis ad hoc para resolver una paradoja destacada.

De acuerdo con las ideas clásicas del siglo 19, que se remontan a los tiempos de Laplace, un cuerpo caliente, como una pieza de metal al rojo, debería emitir radiación. (imagen: Simón Laplace)

Perdería energía en forma de ondas de radio, infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma, todos a la misma tasa. Esto no sólo significaría que todos moriríamos de cáncer de piel, sino que además todo en el universo estaría a la misma temperatura, lo que claramente no es así.

Sin embargo, Planck mostró que se puede evitar este desastre si se abandonara la idea de que la cantidad de radiación puede tener cualquier valor, y se dijera en su lugar que la radiación llega únicamente en paquetes o cuantos de un cierto tamaño.

Es un poco como decir que en el supermercado no se puede comprar azúcar a granel, sino sólo en bolsas de un kilo. La energía en los paquetes o cuantos es mayor para los rayos x y ultravioleta, que para la luz infrarroja o visible. Esto significa que a menos que un cuerpo esté muy caliente, como el Sol, no tendrá suficiente energía para producir ni siquiera un único cuanto de rayos x o ultravioleta. Por eso no nos quemamos por insolación con una taza de café.

Para Planck los cuantos no eran más que un truco matemático que no tenía una realidad física, lo que quiera que eso signifique. Sin embargo, los físicos empezaron a encontrar otro comportamiento, que sólo podía ser explicado en términos de cantidades con valores discretos o cuantizados, más que variables continuas.

Por ejemplo, se encontró que las partículas elementales se comportaban más bien como pequeñas peonzas girando sobre un eje. Pero la cantidad de giro no podía tener cualquier valor. Tenía que ser algún múltiplo de una unidad básica. Debido a que esa unidad es muy pequeña, uno no se da cuenta de que una peonza normal decelera mediante una rápida secuencia de pequeños pasos, más que mediante un proceso continuo. Pero para peonzas tan pequeñas como los átomos, la naturaleza discreta del giro es muy importante.

Pasó algún tiempo antes de que la gente se diera cuenta de las implicaciones que tenía este comportamiento cuántico para el determinismo. No sería hasta 1926, cuando Werner Heisenberg, otro físico alemán, indicó que no podrías medir exactamente la posición y la velocidad de una partícula a la vez. Para ver dónde está una partícula hay que iluminarla.

Pero de acuerdo con el trabajo de Planck, uno no puede usar una cantidad de luz arbitrariamente pequeña. Uno tiene que usar al menos un cuanto. Esto perturbará la partícula, y cambiará su velocidad de una forma que no puede ser predicha. Para medir la posición de la partícula con exactitud, deberás usar luz de una longitud de onda muy corta, como la ultravioleta, rayos x o rayos gamma. Pero nuevamente, por el trabajo de Planck, los cuantos de esas formas de luz tienen energías más altas que las de la luz visible.

Por eso perturbarán aún más la velocidad de la partícula. Es un callejón sin salida: cuanto más exactamente quieres medir la posición de la partícula, con menos exactitud puedes conocer la velocidad, y viceversa. Esto queda resumido en el Principio de Incertidumbre formulado por Heisenberg; la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad, es siempre mayor que una cantidad llamada la constante de Planck, dividida por la masa de la partícula.

La visión de Laplace del determinismo científico implicaba conocer las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo. Por lo tanto, fue seriamente socavado por el Principio de Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no puede medir exactamente las posiciones ni las velocidades de las partículas en el instante actual? No importa lo potente que sea el ordenador de que dispongas, si lo alimentas con datos deplorables, obtendrás predicciones deplorables.

Albert Einstein

Einstein estaba muy descontento por esta aparente aleatoriedad en la naturaleza. Su opinión se resumía en su famosa frase ‘Dios no juega a los dados’.

Parecía que había presentido que la incertidumbre era sólo provisional, y que existía una realidad subyacente en la que las partículas tendrían posiciones y velocidades bien definidas y se comportarían de acuerdo con leyes deterministas, en consonancia con Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto tenuemente a través de un cristal.

La visión de Einstein era lo que ahora se llamaría una teoría de variable oculta. Las teorías de variable oculta podrían parecer ser la forma más obvia de incorporar el Principio de Incertidumbre en la física.

Forman la base de la imagen mental del universo, sostenida por muchos científicos, y prácticamente por todos los filósofos de la ciencia. Pero esas teorías de variable oculta están equivocadas. El físico británico John Bell, que murió recientemente, ideó una comprobación experimental que distinguiría teorías de variable oculta.

Cuando el experimento se llevaba a cabo cuidadosamente, los resultados eran inconsistentes con las variables ocultas. Por lo tanto parece que incluso Dios está limitado por el Principio de Incertidumbre y no puede conocer la posición y la velocidad de una partícula al mismo tiempo. O sea que Dios juega a los dados con el universo. Toda la evidencia lo señala como un jugador empedernido, que tira los dados siempre que tiene ocasión.

Otros científicos estaban mucho más dispuestos que Einstein a modificar la visión clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger, y el físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la cátedra Lucasiana de Cambridge. Aunque la mecánica cuántica ha estado entre nosotros durante cerca de 70 años, todavía no es generalmente entendida o apreciada, incluso por aquellos que la usan para hacer cálculos. Sin embargo, debería preocuparnos a todos, puesto que es una imagen completamente diferente del universo físico y de la misma realidad.

En la mecánica cuántica, las partículas no tienen posiciones ni velocidades bien definidas. En su lugar, son representadas por lo que se llama una función de onda. Esta es un número en cada punto del espacio. El tamaño de la función de onda indica la probabilidad de que la partícula sea encontrada en esa posición.

La tasa con la que la función de onda cambia de punto a punto, proporciona la velocidad de la partícula. Uno puede tener una función de onda con un gran pico en una región muy pequeña. Esto significará que la incertidumbre en la posición es muy pequeña. Pero la función de onda variará muy rápidamente cerca del pico, hacia arriba en un lado, hacia abajo en el otro. Por lo tanto la incertidumbre en la velocidad será grande. De la misma manera, uno puede tener funciones de onda en las que la incertidumbre en la velocidad es pequeña, pero la incertidumbre en la posición es grande.

La función de onda contiene todo lo que uno puede saber de la partícula, tanto su posición como su velocidad. Si sabes la función de onda en un momento dado, entonces sus valores en otros momentos son determinados por lo que se llama la ecuación de Schroedinger. Por lo tanto uno tiene aún un cierto determinismo, pero no del tipo que Laplace imaginaba. En lugar de ser capaces de predecir las posiciones y las velocidades de las partículas, todo lo que podemos predecir es la función de onda. Esto significa que podemos predecir sólo la mitad de lo que podríamos de acuerdo con la visión clásica del siglo 19.

Aunque la mecánica cuántica lleva a la incertidumbre cuando tratamos de predecir la posición y la velocidad a un mismo tiempo, todavía nos permite predecir con certidumbre una combinación de posición y velocidad. Sin embargo, incluso este grado de certidumbre parece estar amenazado por desarrollos más recientes. El problema surge porque la gravedad puede torcer el espacio-tiempo tanto que puede haber regiones que no observamos.

Curiosamente, el mismo Laplace escribió un artículo en 1799 sobre cómo algunas estrellas pueden tener un campo gravitatorio tan fuerte que la luz no podría escapar, siendo por tanto arrastrada de vuelta a la estrella. Incluso calculó que una estrella de la misma densidad que el Sol, pero doscientas cincuenta veces más pequeña, tendría esta propiedad. Pero aunque Laplace podría no haberse dado cuenta, la misma idea había sido propuesta 16 años antes por un hombre de Cambridge, John Mitchell, en un artículo en Phylosophical Transactions of the Royal Society.

Tanto Mitchel como Laplace concebían a la luz como formada por partículas, más bien como bolas de cañón, que podían ser deceleradas por la gravedad, y hechas caer de vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a una velocidad de ciento ochenta y seis mil millas por segundo, no importa de dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de nuevo.

De acuerdo con las ideas sobre el espacio y el tiempo vigentes en aquel momento esto era imposible. Sin embargo, en 1915 Einstein presentó al mundo su revolucionaria Teoría General de la Relatividad en la cual espacio y tiempo dejaban de ser entidades separadas e independientes. Por el contrario, eran meramente diferentes direcciones de una única noción llamada espacio-tiempo.

Esta noción espacio-tiempo no era uniforme sino deformada y curvada debido a su energía inherente. Para que se entienda mejor, imagínese que colocamos un peso (que hará las veces de estrella) sobre una lámina de goma. El peso (estrella) formará una depresión en la goma curvándose la zona alrededor del mismo en contraposición a la planicie anterior.

Si hacemos rodar canicas sobre la lámina de goma, sus rastros serán espirales más que líneas rectas. En 1919, una expedición británica en el Oeste de África observaba la luz de estrellas lejanas que cruzaba cerca del sol durante un eclipse. Descubrieron que las imágenes de las estrellas variaban ligeramente de sus posiciones habituales; esto revelaba que las trayectorias de la luz de las estrellas habían sido curvadas por el influjo del espacio-tiempo que rodea al sol. La Relatividad General había sido confirmada.

Imagínese ahora que colocamos pesos sobre la lámina de goma cada vez más cuantiosos y de manera más intensiva. Hundirán la plancha cada vez más. Con el tiempo, alcanzado el peso y la masa crítica se hará un agujero en la lámina por el que podrán caer las partículas pero del que no podrá salir nada.

Según la Teoría General de la Relatividad lo que sucede con el espacio-tiempo es bastante similar. Cuanto más ingente y más densa sea una estrella, tanto más se curvará y distorsionará el espacio-tiempo alrededor de la misma. Si una estrella inmensa que ha consumido ya su energía nuclear se enfría encogiéndose por debajo de su masa crítica, formará literalmente un agujero sin fondo en el espacio-tiempo por el que no puede pasar la luz. El físico americano John Wheeler llamó a estos objetos “agujeros negros” siendo el primero en destacar su importancia y los enigmas que encierran. El término se hizo popular rápidamente.

Para los americanos sugería algo oscuro y misterioso mientras que para los británicos existía además la amplia difusión del Agujero Negro de Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron algo indecente en el vocablo. Durante años se resistieron a utilizar el término, demasiado negro, arguyendo que era obsceno; pero era parecido a intentar luchar contra préstamos lingüísticos como “le weekend” y otras mezcolanzas del “franglés”. Al final tuvieron que claudicar. ¿Quién puede resistirse a una expresión así de conquistadora?

Ahora tenemos evidencias de la existencia de agujeros negros en diferentes tipos de entidades, desde sistemas de estrellas binarios al centro de las galaxias.

Por lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería su relevancia para el determinismo? La respuesta reside en una pegatina de parachoques que tenía en la puerta de mi despacho: “los agujeros negros son invisibles”.

No sólo ocurre que las partículas y los astronautas desafortunados que caen en un agujero negro no vuelven nunca, sino que la información que estos portan se pierde para siempre, al menos en nuestra demarcación del universo. Puede lanzar al agujero negro aparatos de televisión, sortijas de diamantes e incluso a sus peores enemigos y todo lo que recordará el agujero negro será su masa total y su estado de rotación. John Wheeler llamó a esto “un agujero negro no tiene pelo”. Esto confirma las sospechas de los franceses.

(Paul DiracMientras hubo el convencimiento de que los agujeros negros existirían siempre, esta pérdida de información pareció no importar demasiado. Se podía pensar que la información seguía existiendo dentro de los agujeros negros.

Simplemente es que no podemos saber lo que hay desde fuera de ellos pero la situación cambió cuando descubrí que los agujeros negros no son del todo negros. La Mecánica Cuántica hace que estos emitan partículas y radiaciones a un ritmo constante. (imagen Paul Dirac)

Estos hallazgos me asombraron no sólo a mí si no al resto del mundo pero con la perspectiva del tiempo esto habría resultado obvio. Lo que se entiende comúnmente como “el vacío” no está realmente vacío ya que está formado por pares de partículas y antipartículas. Estas permanecen juntas en cierto momento del espacio-tiempo, en otro se separan para después volver a unirse y finalmente aniquilarse la una a las otra.

Estas partículas y antipartículas existen porque un campo, tal como los campos que transportan la luz y la gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo tendría tanto una posición exacta (en cero) como una velocidad o ritmo de cambio exacto (también cero).

Esto violaría el Principio de Incertidumbre porque una partícula no puede tener al tiempo una posición y una velocidad constantes. Por lo tanto, todos los campos deben tener lo que se denomina fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se puede interpretar estas fluctuaciones del vacío como partículas y antipartículas como he descrito anteriormente.

Estos pares de partículas se dan en conjunción con todas las variedades de partículas elementarias. Se denominan partículas virtuales porque se producen incluso en el vacío y no pueden ser mostradas directamente por los detectores de partículas. Sin embargo, los efectos indirectos de las partículas virtuales o fluctuaciones del vacío han sido estudiados en diferentes experimentos, siendo confirmada su existencia.

Si hay un agujero negro cerca, uno de los componentes de un par de partículas y antipartículas podría deslizarse en dicho agujero dejando al otro componente sin compañero. La partícula abandonada puede caerse también en el agujero o bien desplazarse a larga distancia del mismo donde se convertirá en una verdadera partícula que podrá ser apreciada por un detector de partículas. A alguien muy alejado del agujero negro le parecerá que la partícula ha sido emitida por el mismo agujero.

Esta explicación de cómo los agujeros negros no son tan negros clarifica que la emisión dependerá de la magnitud del agujero negro y del ritmo al que esté rotando. Sin embargo, como un agujero negro no tiene pelo, citando a Wheeler, la radiación será por otra parte independiente de lo que se deslizó por el agujero. No importa lo que arroje a un agujero negro: aparatos de televisión, sortijas de diamantes o a sus peores enemigos. Lo que de allí sale es siempre lo mismo.

Pero ¿qué tiene esto que ver con el determinismo que es sobre lo que se supone que versa esta conferencia? Lo que esto demuestra es que hay muchos estados iniciales (incluyendo aparatos de televisión, sortijas de diamantes e incluso gente) que evolucionan hacia el mismo estado final, al menos fuera del agujero negro.

Sin embargo, en la visión de Laplace sobre el determinismo había una correspondencia exacta entre los estados iniciales y los finales. Si usted supiera el estado del universo en algún momento del pasado podría predecirlo en el futuro. De manera similar, si lo supiera en el futuro, podría deducir lo que habría sido en el pasado.

Con el advenimiento de la Teoría del Cuanto en los años 20 del siglo pasado se redujo a la mitad lo que uno podía predecir pero aún dejó una correspondencia directa entre los estados del universo en diferentes momentos. Si uno supiera la función de onda en un momento dado, podría calcularla en cualquier otro.

Sin embargo, la situación es bastante diferente con los agujeros negros. Uno se encontrará con el mismo estado fuera del agujero, independientemente de lo que haya lanzado dentro, a condición de que tenga la misma masa. Por lo tanto, no hay una correspondencia exacta entre el estado inicial y el estado final ya fuera del agujero negro. Habrá una correspondencia exacta entre el estado inicial y el final ambos fuera o ambos dentro del agujero negro.

Sin embargo, lo importante es que la emisión de partículas y la radiación alrededor del agujero provocan una reducción en la masa del mismo y se empequeñece. Finalmente, parece que el agujero negro llega a la masa cero y desaparece del todo. Pero, ¿qué ocurre con todos los objetos que fueron lanzados al agujero y con toda la gente que o bien saltó o fue empujada? No pueden volver a salir porque no existe la suficiente masa o energía sobrante en el agujero negro para enviarlos fuera de nuevo.

Puede que pasen a otro universo pero eso nos da lo mismo a los que somos lo suficientemente prudentes como para no saltar dentro de un agujero negro. Incluso la información de lo que cayó dentro del agujero no podría salir de nuevo cuando el agujero desaparezca por último. La información no se distribuye gratuitamente como bien sabrán aquellos de ustedes que paguen facturas telefónicas. La información necesita energía para transportarse, y no habrá suficiente energía de sobra cuando el agujero negro desaparezca.

Ideas de Hawking sobre el Universo

Lo que todo esto (ver pagina anterior) significa es que la información se perderá de nuestra demarcación del universo cuando se formen los agujeros negros para después desvanecerse.

Esta pérdida de información implica que podemos predecir incluso menos de lo pensamos, partiendo de la base de la teoría cuántica. En esta teoría puede no ser factible predecir con certidumbre la posición y la velocidad de una partícula al mismo tiempo.

Hay sin embargo una combinación de posición y velocidad que sí puede ser predicha. En el caso de un agujero negro, esta predicción específica concierne a los dos miembros de un par de partículas-antipartículas pero únicamente podemos detectar la partícula expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos, podría estar en cualquier estado. Esto significa que no podemos hacer ninguna predicción concreta acerca de la partícula que expulsa el agujero.

Podemos calcular la probabilidad de que la partícula tenga esta o aquella posición o velocidad pero no podemos predecir con precisión una combinación de la posición y velocidad de sólo una partícula porque su velocidad y posición van a depender de la otra partícula, la cual no está bajo nuestra observación. Así que Einstein estaba sin lugar a dudas equivocado cuando dijo, “Dios no juega a los dados”. No sólo Dios juega definitivamente a los dados sino que además a veces los lanza a donde no podemos verlos.

Muchos científicos son como Einstein en el sentido de que tienen un lazo emocional muy fuerte con el determinismo pero al contrario que Einstein han aceptado la reducción en nuestra capacidad para predecir que nos había traído consigo la teoría cuántica. Pero ya era mucho.

A estos no les gustó la consiguiente reducción que los agujeros negros parecían implicar. Pensar que el universo es determinista, como creía Laplace, es simplemente inocente. Presiento que estos científicos no se han aprendido la lección de la historia. El universo no se comporta de acuerdo a nuestras preconcebidas ideas. Continúa sorprendiéndonos.

Podría pensarse que no importa demasiado si el determinismo hizo aguas cerca de los agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz de agujero negro de cualquier tamaño pero según el Principio de Incertidumbre, cada región del espacio debería estar llena de diminutos agujeros negros virtuales que aparecerían y desaparecerían una y otra vez.

Uno pensaría que las partículas y la información podrían precipitarse en estos agujeros negros y perderse. Sin embargo, como estos agujeros negros virtuales son tan pequeños (cien billones de billones más pequeños que el núcleo de un átomo) el ritmo al cual se perdería la información sería muy bajo. Esto es por lo que las leyes de la ciencia parecen deterministas, observándolas con detenimiento.

Sin embargo, en condiciones extremas, tales como las del universo temprano o las de la colisión de partículas de alta energía, podría haber una significativa pérdida de información. Esto conduce a la imprevisibilidad en la evolución del universo.

En resumen, de lo que he estado hablando es de si el universo evoluciona de manera arbitraria o de si es determinista. La visión clásica propuesta por Laplace estaba fundada en la idea de que el movimiento futuro de las partículas estaba determinado por completo, si se sabían sus posiciones y velocidades en un momento dado.

Esta hipótesis tuvo que ser modificada cuando Heisenberg presentó su Principio de Incertidumbre el cual postulaba que no se podía saber al mismo tiempo y con precisión la posición y la velocidad. Sin embargo, sí que era posible predecir una combinación de posición y velocidad pero incluso esta limitada certidumbre desapareció cuando se tuvieron en cuenta los efectos de los agujeros negros: la pérdida de partículas e información dentro de los agujeros negros dio a entender que las partículas que salían eran fortuitas.

Se pueden calcular las probabilidades pero no hacer ninguna predicción en firme. Así, el futuro del universo no está del todo determinado por las leyes de la ciencia, ni su presente, en contra de lo que creía Laplace. Dios todavía se guarda algunos ases en su manga.

Es todo lo que tengo que decir por el momento. Gracias por escucharme.

La Evolución Cientifica Rusa Despues de la Guerra Mundial Avances

La Evolución Científica Rusa Después de la Guerra Mundial

Antes de la revolución bolchevique de 1917, la ciencia en Rusia se había desarrollado primordialmente en unas cuantas instituciones de élite que contaban con el apoyo generoso del Estado. Estas formaban una pirámide jerárquica, con la Academia Imperial Rusa de Ciencias (fundada en 1724).

El apoyo estatal a la ciencia formaba parte de una iniciativa general destinada a occidentalizar el Imperio Ruso fundado por Pedro el Grande en el siglo XVIII. A finales del siglo XIX, a medida que el desarrollo industrial cobró impulso, se introdujeron las ciencias aplicadas y la investigación tecnológica.

Gracias a la creación de unas instalaciones de investigación relativamente avanzadas en algunos institutos de la Academia Imperial y Universidades de San Petersburgo y Moscú, la ciencia en Rusia pasó a ocupar un lugar preponderante en varios campos.

Dmitri Mendeleyev, por ejemplo, demostró que las propiedades químicas de los elementos constituyen unas funciones periódicas de sus pesos atómicos (ley periódica). Poco antes de estallar la Primera Guerra Mundial, la ciencia en Rusia casi se había integrado con las ciencias en Europa.

Muchos científicos emigraron durante la revolución y la Guerra Civil (1918-1921). Debido a la necesidad de restaurar y desarrollar la industria rusa, el gobierno soviético encabezado por Lenin comprendió que era esencial impulsar la educación y la ciencia con el fin de construir el socialismo.

Las instalaciones destinadas a la investigación y la educación se multiplicaron durante los años veinte. Se fundaron nuevas academias dedicadas a la geografía y otros temas específicos y se crearon numerosos institutos de investigación y educación. Los científicos soviéticos trataron de restaurar los vínculos internacionales y la colaboración con las instituciones extranjeras.

Estas iniciativas finalizaron inesperadamente en 1929, cuando Stalin emprendió un programa de rápida industrialización y colectivización de la agricultura. Receloso de los vínculos que los científicos y tecnólogos soviéticos mantenían con el extranjero, en 1929-1931 ordenó que fueran procesados varios ingenieros y científicos de renombre, los cuales fueron encarcelados, exiliados o ejecutados. Los viajes al extranjero fueron prohibidos y la ciencia «socialista» fue esencialmente distinta de la ciencia «burguesa».

Durante esos años, algunos científicos soviéticos trataron de conjugar la ideología marxista con la teoría científica. En 1935-1937, muchos conceptos seudocientíficos fueron apoyados por el gobierno. El más célebre fue la seudobiología de Trofim Lysenko, la cual prometía la transformación de las plantas, los animales e incluso los seres humanos mediante unos métodos neolamarckistas (es decir, las propiedades genéticas podían ser modificadas por unos condicionantes ambientales). La represión de la ciencia fue más intensa entre 1937 y 1940, cuando un buen número de científicos soviéticos fueron ejecutados o perecieron en los campos de trabajo en el Ártico.

El terror de Stalin afectó a la investigación militar soviética y contribuyó a las derrotas padecidas por el Ejército Rojo en 1941 y 1942. Sin embargo, esta situación mejoró en 1943 y 1944, y la tecnología militar soviética cobró un nuevo impulso cuando algunos ingenieros como Anatoli Túpoliev y Serguéi Korolev fueron excarcelados.

Científicos como Piotr Kapitza, Nikolái Semiónov y Lev Landau (todos ellos futuros premios Nobel), entre otros, se dedicaron con ahínco al esfuerzo de la guerra. En 1941 Kapitza sugirió la posibilidad de construir una bomba atómica, pero el proyecto de investigación no se inició hasta 1943.

Después de la Segunda Guerra Mundial, Stalin comprendió que la URSS ocupaba una posición rezagada respecto a Estados Unidos y Gran Bretaña en cuanto a algunas tecnologías clave relacionadas con las armas atómicas: misiles, aviones a reacción, radar, etcétera.

Por consiguiente, el gobierno apoyó la labor de investigación y los científicos se convirtieron de nuevo en miembros respetados de la élite intelectual. Igor Kurchatov y Andrei Sajárov contribuyeron a la creación de la bomba atómica en 1949 y a la bomba de hidrógeno en 1953. La Academia de las Ciencias recibió de nuevo ayuda del gobierno, permitiéndole aumentar su número de socios y ampliar sus centros de investigación.

Entre 1954-1961, la URSS ocupaba un lugar preponderante en la aplicación práctica de la energía atómica, habiendo construido la primera central atómica y el primer buque rompehielos propulsado por energía atómica. También, ocupaba un lugar destacado en la carrera espacial.

En 1957 lanzó su primer satélite y en 1961 realizó su primer vuelo espacial. Pero los viejos conceptos seudocientíficos también gozaban del apoyo del gobierno, lo cual impidió el desarrollo de la investigación en el campo de la química orgánica, la biología y los ordenadores hasta finales de los años cincuenta.

La creciente infraestructura destinada a la investigación, la creación de «ciudades científicas» aisladas como Akademgorodok en Siberia y los elevados salarios de los investigadores impulsó, entre 1950-1960, a casi 400.000 jóvenes licenciados a seguir una carrera científica.

Los materiales importados de Occidente mejoraron la base técnica de la investigación. La calidad de la investigación en ámbitos como la biología molecular, la superconductividad, la fusión, la tecnología del láser y los ordenadores alcanzó niveles internacionales.

Si bien el aislamiento, políticamente motivado, de .a comunidad científica se había roto, la interferencia política en la vida científica seguía entorpeciendo el desarrollo de la ciencia. El Partido Comunista controlaba los centros de investigación y las •universidades. Las medidas represivas contra los disidentes políticos a raíz de la invasión soviética de Checoslovaquia en 1968 provocaron un impacto negativo en el ámbito de las ciencias.

A finales de los años setenta se inició un período de estancamiento en la investigación científica y tecnológica. En consecuencia, la URSS no participó en .a revolución electrónica y biotécnica que experimentó .a ciencia en Occidente. En los años ochenta, la política de Mijail Gorbachov de la perestroika reestructuración») apenas si afectó a la ciencia debido ; la escasez de fondos y divisas para financiar los nuevos conceptos en materia de investigación y desarrollo.

PARA SABER MAS…

cietifico rusoLa ciencia consiste en un conjunto de normas que impiden que los científicos se engañen mutuamente. El quebrantamiento de estas normas es impropio de un científico. La sociedad quiere que la ciencia sea buena, verdadera y hermosa.

Pero en la vida real, sus actuaciones no siempre están a la altura del ideal. A lo largo de los años se han producido muchos ejemplos de mala conducta científica, desde el error inocuo, fruto de la negligencia o la mala observación, hasta la manipulación intencionada de los datos o el puro y simple fraude.

La anticuada teoría lamarckiana de la herencia, según la cual las características físicas adquiridas durante la vida del individuo podían ser transmitidas a posteriores generaciones, recibió durante las tres primeras décadas del siglo el apoyo de los experimentos realizados por Paul Kammerer, en Viena, con salamandras y ranas.

En un experimento considerado básico intervenía el sapo partero, Alytes obstetrícans. Estos sapos se aparean en tierra y carecen de las almohadillas córneas pigmentadas (almohadillas nupciales) que presentan en las patas los sapos que se aparean en el agua. Kammerer mantuvo en el agua varias generaciones de sapos Alytes, obligándolos a aparearse en ese medio.

Después de varias generaciones, algunos de los machos desarrollaron las almohadillas nupciales y Kammerer anunció que el nuevo rasgo se había vuelto hereditario. Comenzó entonces un largo debate entre Kammerer y los genetistas mendelianos. En 1926, el herpetólogo norteamericano G.K.

Noble visitó el laboratorio de Kammerer y descubrió que la coloración de las patas de los ejemplares de Alytes era el resultado de la inyección subcutánea de tinta china. Aunque Kammerer se declaró inocente, quedó totalmente desacreditado y se quitó la vida. Aun así, el experimento sirvió para difundir las ideas lamarckianas en la Unión Soviética durante el período de Lysenko.

El agrónomo soviético Trofim D. Lysenko, activo entre 1929 y 1960, obtuvo el apoyo del partido comunista para su versión de la filosofía lamarckiana. Sus actividades determinaron la aniquilación de la ciencia de la genética en la Unión Soviética.

En primer lugar, Lysenko adquirió cierto prestigio por su redescubrimiento de la «vernalización» (cuando las semillas se mantienen húmedas y frías durante el invierno, las plantas germinan y maduran antes en el verano). Se opuso a la genética mendeliana y negó la función de los cromosomas como transmisores de la herencia. Insistió fanáticamente en la validez de sus ideas seudocientíficas e hizo caso omiso de las pruebas presentadas por la ciencia occidental.

Consiguió imponer a las granjas colectivas la aplicación de sus delirantes ideas de hibridación de diferentes plantas, fertilización cruzada del centeno y transformación de una especie vegetal en otra. Muchas de las experiencias de Lysenko se basaban en la manipulación de los datos.

Para 1948 Lysenko era tan poderoso en la ciencia agrícola soviética que muchos de sus adversarios, partidarios de la genética clásica, perdieron sus trabajos y fueron enviados a campos de concentración, sólo porque se atrevieron a contradecirlo. La influencia de Lysenko no se desvaneció hasta 1965, tras la muerte de Stalin y la caída de Krushov, sus principales partidarios. Sus teorías no tardaron en caer en el olvido.