La Máquina de Dios

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Curiosas Estadisticas del Mundo Datos Poblacion Hambre Pobreza Energía

CURIOSAS ESTADÍSTICAS DEL MUNDO: POBLACIÓN, HAMBRE, POBREZA, ENERGÍA

datos del mundo

EL ETERNO PROBLEMA DE LA POBREZA MUNDIAL:
Actualmente, en el mundo en desarrollo 1.300 millones de personas viven con menos de un dólar diario y cerca de 3.000 millones, casi la mitad de la población mundial, con menos de dos dólares.

El hecho de que los países industrializados alcancen los porcentajes más bajos de pobres, no significa que en esos países no los tengan, pues el problema de la pobreza es mundial. Lo que ocurre es que en esos países la mayoría de sus habitantes no son pobres y gran parte tiene acceso a condiciones dignas de vida. En cambio, en los países en desarrollo, existe un predominio de pobres y una minoría de ricos.

En el mundo, la mayoría de los pobres todavía se localiza en las zonas rurales, pero esta situación está cambiando y probablemente en el siglo XXI la mayor parte viva en ciudades. Este proceso será resultado de la migración a las zonas urbanas, del menor acceso a recursos productivos, del desarrollo insuficiente de la vivienda urbana y la infraestructura física, etcétera.

EN BUSCA DE SOLUCIONES:

Tan grave es este problema que ha crecido la conciencia de la necesidad de cooperación internacional para intentar mejorar esta situación. Una de las iniciativas que emprendió la Organización de las Naciones Unidas es el Programa de las naciones Unidas para el Desarrollo (PNUD).

Este programa aconseja que se preocupen por la calidad del crecimiento económico y por las siguientes cuestiones:

Crecimiento sin empleo: la economía general crece pero sin que aumenten las oportunidades de empleo. En los países en desarrollo el crecimiento sin empleo también redunda en muchas horas de trabajo e ingresos muy bajos para centenares de millones de personas.

Crecimiento sin equidad: los frutos del crecimiento económico benefician especialmente a los ricos, dejando a millones de personas sumergidas en una pobreza cada vez más profunda. Entre 1970 y 1985, el valor de la producción mundial aumentó un 40% pero el número de pobres creció el 17%.

Crecimiento sin voz de las comunidades: la represión política y los controles autoritarios han impedido las demandas de mayor participación social y económica en los países donde el crecimiento de la economía no ha sido acompañado por un fortalecimiento de la democracia o de las posibilidades de expresarse de la gente.
El PNUD considera que existen factores a tomar en cuenta para que el desarrollo humano acompañe al crecimiento:

Equidad: cuanto mayor sea la igualdad con que se distribuye la producción mundial y las oportunidades económicas, tanto más posible será que se traduzcan en un mejoramiento del bienestar humano.

Oportunidades de empleo: el crecimiento económico se concreta en la vida de la gente cuando se ofrece trabajo productivo y bien remunerado. Una manera importante de lograrlo consiste en procurar crecimiento por medio de actividades económicas que requieren abundante mano de obra.

Acceso a bienes de producción: el Estado debería actuar para lograr que las personas más pobres tengan satisfechas sus necesidades básicas.

Gasto social: los gobiernos y las comunidades pueden influir en gran medida en el desarrollo humano, encauzando una parte importante del ingreso público hacia el gasto social más prioritario: salud, educación, justicia, atención de los ancianos.

Igualdad de género: brindar a la mujer mejores oportunidades y mejor acceso a la enseñanza, las guarderías infantiles, el crédito y el empleo.

Esto se complementa con políticas de población, buen gobierno y una sociedad civil activa.

Un esfuerzo decidido para aumentar la capacidad humana -mediante mejor enseñanza, mejor salud y mejor nutrición- puede ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países de bajos ingresos y escaso desarrollo humano.

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la Termodinámica Modelo Atómico de Bohr Cinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir “salvar los fenómenos” estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

“Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.”

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el “spin“, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son “permitidas” mientras que otras “permanecen prohibidas”.

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

Biografia de John Nash:Una Mente Brillante

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.

 “Una mente maravillosa”, “A beautiful Mind” es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo “Senior” o “Junior” (Jr.).  Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University. Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta. Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente

y llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

“Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro”.

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  “Men of Mathematics” (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada “Juegos No-Cooperativos”. Obsérvese que el libro inicial de la teoría de juegos, “Theory of Games and Economic Behavior” de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton. En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron. En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

“.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.”

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

“Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual”.

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

Nombre País Fechas Logros Miembros
Sputnik URSS 1957-1958 Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
Explorer EE.UU. 1958-1984 Experimentos
Científicos
Pionner EE.UU. 1958 Investigación
de la Luna
Lunik URSS 1959 Aterrizaje
en la Luna
Vostok URSS 1961-1963 Primer Vuelo
Tripulado
Mercury EE.UU. 1961-1963 Americanos en el Espacio
Venera URSS 1961-1983 Investigaciones
de Venus
Ranger EE.UU. 1961-1965 Alunizajes
Mariner EE.UU. 1962-1974 Mercurio, Venus
y Marte
OSO EE.UU. 1962 Estudio Solar
Mars URSS 1962-1971 Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
Vokshod URSS 1964-1965 Vuelos espacial con tres tripulantes
Géminis EE.UU. 1964-1966 Prueba de Vuelos Lunares
Luna URSS 1966 Fotografía
Lunar
Luna Orbiter EE.UU. 1966-1967 Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
Surveyor EE.UU. 1966-1968 Robot Lunar
Apolo EE.UU. 1966-1975 El hombre llega
a la Luna
Soyuz URSS 1967-1986 Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
Salyut URSS 1971-1986 Estación espacial tripulada
Skylab EE.UU. 1973-1974 Primera estación espacial americana
ATM EE.UU. 1973-1974 Estudio Solar
Apolo-Soyuz EE.UU./URSS 1975 Emprendimiento Internacional Vanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
Voyager EE.UU. 1977-1986 Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMM EE.UU. 1980-1989 Estudio
Solar
Transbordador EE.UU. 1981-? Naves tripuladas de uso reiterado
Spacelab EE.UU./AEE 1983 Laboratorio espacial de uso reiterado
Vega URSS 1985 Estudio atmosférico de Venus y fotos del cometa Halley
Mir URSS 1986-? Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
Giotto AEE 1986
Susei Japón 1986
Buran URSS 1988
Fobos URSS 1988
Galileo EE.UU. 1992-?
Cassini EE.UU./AEE 1996

Teoría Especial de la Relatividad Explicacion Sencilla Albert Einstein

Teoría Especial de la Relatividad
Explicación Sencilla

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

 

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Usos de la Energía Nuclear Que es la energia nuclear? Conceptos Atucha

DESCRIPCIÓN DEL USO DE LA ENERGIA NUCLEAR

Los fundamentos de la física atómica

Historia de la Energia
Nuclear
Efectos De Una
Explosión Nuclear
Funcionamiento
De Una Central Nuclear

USOS DE LA ENERGÍA NUCLEAR –  PRINCIPIO FÍSICO DE SU GENERACIÓN

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energía empleada en el mundo. La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables. La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.

Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas. Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.

LA ENERGÍA ATÓMICA

Radiactividad natural: Descubierta accidentalmente por Henri Becquerel, en 1896, y estudiada en profundidad por Pierre y Marie Curie (fig. izquierda), a quienes se debe el nombre, la radiactividad natural es el fenómeno según el cual determinados materiales, como, por ejemplo, las sales de uranio, emiten radiaciones espontáneamente.

Las radiaciones emitidas son de tres tipos que se denominan alfa, beta y gamma, y tienen las siguientes características:

Las radiaciones alfa son poco penetrantes, ya que son detenidas por una hoja de papel y se desvían en presencia de campos magnéticos y eléctricos intensos. Están formadas por partículas cuya masa es de 4 u y cuya carga, positiva, es igual a dos veces la carga del electrón.

Las radiaciones beta son más penetrantes que las radiaciones alfa, aunque son detenidas por una lámina metálica. En realidad consisten en un flujo de electrones.

Las radiaciones gamma son muy penetrantes para detenerlas se precisa una pared gruesa de plomo o cemento. Son radiaciones electromagnéticas de alta frecuencia y, por lo tanto, muy energéticas.


Los rayos alfa buscan el polo negativo y los beta el positivo, pues cargas opuestas se atraen

Fuerzas nucleares

Como ya sabes, entre cargas eléctricas del mismo signo existen fuerzas eléctricas de repulsión. Si esto es así, ¿cómo es posible que los protones permanezcan unidos en un volumen tan reducido como el que tiene el núcleo?

Los protones y los neutrones se mantienen unidos en los núcleos debido a la acción de otro tipo de fuerzas distinto de las fuerzas eléctricas y de las fuerzas gravitatorias. Estas fuerzas, a las que llamaremos fuerzas nucleares, son de atracción y mucho más intensas que las fuerzas eléctricas.

Las fuerzas nucleares son de corto alcance, ya que se anulan cuando las distancias son superiores a unos pocos femtómetros (1 femtómetro =metros). A partir de esta distancia predominarán las fuerzas eléctricas, que tenderán a separar a los protones.

Estabilidad nuclear

Según la proporción entre protones y neutrones de un núcleo, éste es estable o no. Actualmente se conocen más de 300 núcleos estables. La radiactividad tiene su origen en la estabilidad nuclear. Si el núcleo es estable, el elemento no es radiactivo; pero cuando la relación entre los componentes del núcleo no es la adecuada, éste emite partículas y radiaciones electromagnéticas hasta alcanzar la estabilidad.
Se llaman isótopos radiactivos o radioisótopos todos aquellos isótopos que emiten radiaciones. Muchos elementos químicos tienen isótopos radiactivos cuyos núcleos emiten radiaciones y partículas de forma espontánea, a la vez que se transforman en núcleos de otros elementos. Así, por ejemplo, uno de los isótopos del carbono, el carbono- 14, es radiactivo y se transforma, espontáneamente, en un núcleo de nitrógeno.

Es posible conseguir que un núcleo estable se transforme en un radioisótopo. Si a un núcleo estable llega una partícula con suficiente energía, el núcleo puede desestabilizarse y volverse radiactivo para recuperar la estabilidad. Cuando esto sucede, se habla de radiactividad artificial, en oposición a la radiactividad espontánea o radiactividad natural.

Período de semidesintegración

Toda desintegración natural es un proceso aleatorio, es decir, no se puede predecir exactamente cuándo un núcleo determinado va a desintegrarse. Ahora bien, es posible calcular la probabilidad de que un núcleo se desintegre en un tiempo determinado. Con este fin se asocia a cada sustancia radiactiva una magnitud característica llamada período de semidesintegración.

El período de semidesintegración, de una sustancia radiactiva es el tiempo necesario para que se desintegre la mitad de los núcleos presentes en una muestra de dicha sustancia. Es decir, si tenemos una masa m de una sustancia y al cabo de 14 días tenemos la mitad (m/2) de esa sustancia (la otra mitad se ha desintegrado), diremos que su período de semidesintegración es de 14 días.

El período de semidesintegración varía para las distintas sustancias radiactivas desde millones de años a fracciones de segundo Sin embargo, cualquier sustancia radiactiva evoluciona en el tiempo ajustándose a una curva como la que se representa en la figura siguiente:

Curva de desintergración radiactiva

Períodos de semidesintegración de algunos isótopos

Como el período de desintegración del Radio 223 es de 8 días, tendrán que pasar unos 24 días para que la radioactividad de la muestra de este isótopo se reduzca a la octava parte (1/8)

Energía de enlace nuclear

Para calcular la masa de un cierto núcleo se multiplicará el número de protones que contiene por la masa de un protón, se multiplicará el número de neutrones por la masa de un neutrón y se sumarán ambas cantidades.

El núcleo de Li contiene tres protones y tres neutrones. La masa de un neutrón es de 1,6748 . 10-27 kg y la masa de un protón es de 1,6725 . 10-27 kg. En consecuencia, cabría esperar que la masa de este núcleo fuera de 10,0419 . 10-27 kg. Sin embargo, la masa de un núcleo de litio, 9,9846 10-27kg., es menor que la calculada sumando las masas de los tres protones y los tres neutrones que lo constituyen. El defecto de masa es de 0,0573 . 10-27 kg.

Defecto de masa en el núcleo de Litio

Este hecho se repite para todos los núcleos atómicos. La masa de un núcleo atómico es menor que la que se obtiene cuando se suman las masas de los protones y los neutrones que lo constituyen. La diferencia entre ambos valores recibe el nombre de defecto de masa.

El defecto de masa se produce porque parte de la masa de los protones y neutrones se transforma en energía cuando dichas partículas se unen para formar un núcleo atómico.

A partir de este hecho se define una nueva magnitud, la energía total de enlace nuclear, que es la energía que se desprende en la formación de un núcleo a partir de los nucleones que lo forman. Para el núcleo de litio, dicha energía es de 32 MeV. (nota 1 electronvoltio (eV) es la energía cinética que adquiere un electrón al someterse a una diferecia de potencial de 1 voltio. Dicha energía es de 1.6 . 10-19 Julio. Un MeV equivale a un millón de eV)

Los procesos en los que se modifican los núcleos de los átomos reciben el nombre de reacciones nucleares. En las reacciones nucleares, pequeñas cantidades de masa se transforman en grandes cantidades de energía, de acuerdo con la equivalencia establecida por Einstein.
E = m.c2

donde E es la energía desprendida, m es el defecto de masa y e es la velocidad de propagación de la luz en el vacío. Debido al elevado valor de e, a partir de una pequeña cantidad de materia es posible obtener una enorme cantidad de energía

Albert Einstein (1879-1955)

La fisión nuclear:

Determinados núcleos pesados, como, por ejemplo, el núcleo de uranio-235, se rompen en dos núcleos intermedios cuando se bombardean con neutrones. En este proceso, conocido como fisión nuclear, también se emiten otras partículas, además de radiación y una gran cantidad de energía.

De la fisión de un núcleo de uranio-235 se obtiene un átomo de bario-142, un átomo de criptón-91, 3 neutrones y una energía de 210 MeV que se desprende en forma de calor. La ecuación que describe el proceso es la siguiente:

235U + 1 neutrón —-> 142Ba + 91Kr + 3 neutrones + 210 MeV

La masa del núcleo de uranio-235 sumada con la masa del neutrón es ligeramente superior a la suma de las masas del núcleo de bario- 142, el núcleo de criptón-91 y los tres neutrones. Este pequeño defecto de masa se ha transformado en energía.

Los neutrones que se obtienen en la fisión de un núcleo de uranio-235 pueden utilizarse para bombardear otros núcleos de este isótopo y provocar nuevas fisiones que a su vez producirán nuevos neutrones, y así sucesivamente. Se origina de este modo una reacción en cadena mediante la cual, en un tiempo muy breve, se consigue la fisión de un gran número de núcleos y se libera una enorme cantidad de radiación y energía.

Reacción en cadena

 

La fusión nuclear

Una reacción de fusión nuclear es un proceso según el cual se unen núcleos ligeros o intermedios para formar núcleos más pesados, obteniéndose energía.

La fusión de un núcleo de deuterio, 2H, con un núcleo de tritio, 3H, da lugar a la formación de un núcleo de helio-4, 4He, además de un neutrón y una energía dc 17,6 MeV, que se desprende en forma de calor. Esta es una de las reacciones mediante las que el Sol produce energia. La ecuación que describe el proceso es la siguiente:

2H + 3H —-> 4He+ 1 neutrón +  17,6 MeV

Las centrales nucleares

La generación de electricidad es el empleo más importante de la energía liberada en una fisión nuclear. Para ello es necesario controlar la reacción de fisión en cadena; hace falta un sistema que impida que el número de fisiones por unidad de tiempo sobrepase ciertos límites. Esto se logra mediante el reactor nuclear Un reactor nuclear consiste básicamente en un recipiente en cuyo interior se encuentra el combustible nuclear (uranio o plutonio). Dicho combustible se suele introducir en forma de pastillas encapsuladas en una serie de vainas metálicas ,rodeadas por un material moderador, que forman el interior del reactor. Para el control de la reacción existen unas barras deslizantes, compuestas de un material capaz de absorber neutrones (boro o grafito).

Según se introduzcan más o menos barras de control en el interior del reactor, el número de neutrones absorbidos será mayor o menor, de este modo se puede controlar el número de fisiones que ocurren por unidad de tiempo. Si las barras se introducen totalmente, la reacción de fisión se detiene. Todo el conjunto del reactor se halla encerrado por el blindaje biológico, que es una envoltura de metal y hormigón cuya finalidad es impedir el paso de la radiación o gases contaminantes o radiactivos al medio ambiente.

La energía liberada por la fisión del combustible se manifiesta en forma de calor, que se extrae mediante un refrigerante que suele ser agua y que, a causa del calor recibido, se convierte en vapor a alta presión. El vapor así producido es utilizado para mover turbinas que están acopladas a los generadores eléctricos, posteriormente es enfriado y forzado a circular nuevamente dentro del reactor mediante bombas.

Cuando el combustible empleado es el uranio, puede presentarse en dos variedades: uranio natural o uranio enriquecido. El uranio natural contiene una pequeña proporción de átomos de uranio-235, que es el único que puede fisionar en el reactor. Por ello es necesario mejorar sustancialmente la eficiencia del reactor, sobre todo en lo que hace a la absorción indeseada de neutrones, esto encarece la estructura del reactor pero generalmente se compensa con el bajo costo del uranio natural. Por el contrario, el uranio enriquecido presenta una proporción mucho más alta de átomos de uranio-235, que se logra mediante un costoso proceso de refinamiento químico.
El uranio-235 va desapareciendo del combustible debido a las fisiones; después de cierto tiempo de funcionamiento del reactor es necesario recambiar el combustible. Esta operación se logra sacando algunas de las vainas que contienen el combustible y reemplazándolas por otras con combustible nuevo.

La generación de electricidad mediante reactores de fisión nuclear presenta grandes ventajas pero también serios inconvenientes. Entre las ventajas, las más importantes son que no producen contaminación directa de la atmósfera dado que no hay emisión de gases de combustión y que no dependen del suministro de combustibles fósiles que eventualmente han de agotarse. Los inconvenientes tienen que ver con el tipo de residuos que produce su operación, que consisten en material radiactivo (cuya peligrosidad persiste durante muchos miles de años), por esta razón es muy difícil su tratamiento. Además, hay que destacar las consecuencias extremadamente graves que tienen para las personas y el medio ambiente los eventuales accidentes que pueden ocurrir, y han ocurrido, en las centrales nucleares. Estas características compiten firmemente entre sí y hacen que el empleo de las centrales nucleares tenga tantos fervientes defensores como opositores.

Esquema reactor nuclear

La fusión nuclear se presenta como una fuente energética alternativa con muchos menos inconvenientes que la fisión y tantas o más ventajas. Actualmente, la construcción de una central nuclear en base a la fusión se presenta como un serio desafío tecnológico. La fusión se ha logrado en el laboratorio en condiciones muy especiales que no pueden ser llevadas a la escala necesaria para construir una central nuclear que sea económicamente rentable, es decir, que entregue más energía que la que consume y lo haga a un costo que compita con otros mecanismos de generación.

El problema fundamental radica en que la única forma conocida de lograr fusión es comprimir un gas altamente recalentado, a temperaturas superiores a los millones de grados. Este proceso se logra mediante dispositivos llamados botellas magnéticas.

Recientemente, a principios de 1989, dos científicos reportaron haber descubierto un mecanismo mediante el cual se podía lograr la fusión nuclear a temperatura ambiente. El anuncio revolucionó a la comunidad científica internacional por las espectaculares consecuencias que esto tendría y se denominó fusión fría al fenómeno. Lamentablemente, pese a que innumerables grupos de investigadores de todo el mundo trataron de repetir el proceso, ninguno logró resultados positivos y actualmente se sospecha que los experimentos originales estuvieran mal hechos.

La datación arqueológica

La datación de una muestra arqueológica es el procedimiento por el cual se determina su antigüedad. El más conocido es el que emplea el isótopo carbono-14 y que permite determinar la edad de restos fósiles o piezas fabricadas por el hombre de hasta 50.000 años de antigüedad.
El carbono está presente en la atmósfera terrestre, formando dióxido de carbono, en tres variedades isotópicas: el carbono-12, -13 y -14. El carbono-12 y -13 son estables, sin embargo el segundo es muy raro: tan sólo 1 de cada 100 átomos de carbono es carbono-13. En cambio, el carbono-14 es radiactivo con un período de semidesintegración de 5700 años.

Al desintegrarse, el carbono-14 se transforma en nitrógeno-14 y emite radiación Beta y debería desaparecer paulatinamente de la atmósfera. Sin embargo, si bien se lo encuentra en proporción escasísima, hay evidencia de que ésta ha permanecido casi inalterada por muchas decenas de miles de años. Esto es debido a que también existe un mecanismo por el cual se forma carbono-14 a partir del nitrógeno-14. Este hecho tiene lugar en las capas más altas de la atmósfera y consiste en la transmutación del nitrógeno-14 en carbono-14 producida por la radiación cósmica. El carbono-14 así formado se combina con el oxígeno para dar dióxido de carbono y es transportado a las capas más bajas de la atmósfera por las corrientes de aire. Estos dos mecanismos, el de desintegración y el de creación, han llegado a un equilibrio: la cantidad de carbono-14 que se desintegra durante cierto tiempo es igual a la que se crea en ese tiempo. De tal modo la abundancia de carbono-14 en la atmósfera permanece constante.

Como bien sabes, durante el proceso de fotosíntesis las plantas toman dióxido de carbono de la atmósfera y asimilan el carbono a su organismo. Por este motivo, una parte del carbono que hay en las plantas será carbono-14. Cuando la planta muere, el carbono-14 de su organismo comienza a desaparecer lenta pero inevitablemente, debido a su desintegración.

El resultado de este complicado mecanismo es: ¡un fósil vegetal tiene incorporado su propio reloj! Para saber el tiempo que ha trascurrido desde su muerte bastará con medir la abundancia de carbono-14 que hay en él y que será tanto menor cuanto más tiempo haya transcurrido. Los físicos han podido establecer cuál es la ley que sigue esta disminución y confeccionaron tablas de la abundancia en función del tiempo. Por lo tanto, una vez conocida esa abundancia bastará con comparar el valor medido con esa tabla para saber la edad del fósil.

Como ya te imaginarás, este fenómeno que afecta el carbono que hay en las plantas también afecta a los animales pues, en algún paso de la cadena alimentada, ellos se nutren de las plantas. También afecta la composición del suelo, pues en la mayor parte de los casos las plantas al morir se integran a él. También a los utensilios y objetos creados por los hombres primitivos, como las vasijas de barro. Por estas razones, este método de datación sirve para analizar una variedad muy grande de muestras. Debemos decir, sin embargo, que falla cuando se trata de determinar edades de más de 50.000 años, en cuyo caso se emplean otros métodos.

Utilización en medicina y otras áreas
Aprovechando la acción destructiva de las radiaciones sobre la materia, los radioisótopos se emplean en medicina en el tratamiento contra el cáncer, radiando con cobalto-60 los tumores que se quieren eliminar .También se emplean en la esterilización de material médico y quirúrgico.

 Los radioisótopos pueden introducirse en un organismo vivo o en cualquier otro material y puede seguirse su trayectoria a través de él. Por ello se emplean como trazadores o marcadores en investigaciones médicas, químicas, industriales, etc. Por ejemplo, el isótopo yodo -131 se utiliza en medicina para diagnosticar enfermedades de la tiroides. En química y biología, los isótopos radiactivos se utilizan para realizar estudios sobre velocidad y mecanismo de reacciones. En la industria, se emplean para localizar fugas en el transporte de fluidos, por ejemplo, en un oleoducto.

Desventajas del uso de radioisótopos
En contrapartida a su utilidad, el manejo de materiales radiactivos plantea problemas de difícil resolución. Entre ellos se destacan la eliminación de los residuos radiactivos que se producen y el control de la seguridad de las personas encargadas de su manipulación y de las comunidades próximas a las instalaciones nucleares. De hecho, un accidente nuclear de la magnitud del ocurrido en la central de Chernobil puede haber afectado, según algunas estimaciones, la salud de más de medio millón de personas, sin contar las enormes pérdidas materiales que ha originado.
(VER DESCRIPCIÓN DEL PROCESO DE LA FISIÓN DEL URANIO)

Los beneficios de la energía nuclear
La energía nuclear es cuestionada debido a los daños que puede causar al ambiente y a los seres vivos si no existe un control estricto de los reactores nucleares y de los desechos radiactivos, y por su utilización en la fabricación de armamento altamente destructivo. Sin embargo, la energía nuclear puede tener múltiples usos beneficiosos para la humanidad, no solo en la generación de energía eléctrica —una fuente de energía menos contaminante que el petróleo o el carbón—. sino también por su aplicación en otras áreas de la actividad científica y productiva. Entre ellas:

1 | Agricultura y alimentación
a) Control de plagas. En la llamada técnica de los insectos estériles se suministran altas emisiones de radiación para esterilizar insectos machos en laboratorio y que no dejen descendencia al aparearse. De este modo es posible controlar su población sin utilizar productos químicos nocivos.

b) Mutaciones. La irradiación aplicada a semillas permite cambiar la información genética de ciertas variedades de vegetales para obtener nuevas variedades con características particulares.

c) Conservación de alimentos. Las radiaciones son utilizadas para eliminar microorganismos patógenos presentes en los alimentos y aumentar, de este modo, su período de conservación.

2 | Hidrología
Mediante técnicas nucleares, es posible desarrollar estudios sobre los recursos hídricos. Por ejemplo, caracterizar y medir corrientes de aguas, fugas en embalses, identificar el origen de las aguas subterráneas, etcétera.

3 | Medicina
Se utilizan radiaciones y radioisótopos como agentes terapéuticos y de diagnóstico. En el diagnóstico, se utilizan fármacos radiactivos para estudios de tiroides, hígado, riñon, para mediciones de hormonas, enzimas, etcétera. En terapia médica se pueden combatir ciertos tipos de cáncer con resultados exitosos, especialmente cuando se detectan tempranamente.

4 | Medio ambiente
Se utilizan técnicas nucleares para la detección y análisis de diversos contaminantes del medio ambiente.

5 | Industria e investigación
a) Trazadores. Se elaboran sustancias radiactivas que son introducidas en un determinado proceso y, luego, se detecta la trayectoria de la sustancia por su emisión radiactiva. En el ámbito de la Biología, la introducción de compuestos radiactivos marcados ha permitido observar las actividades biológicas hasta en sus más mínimos detalles.

b) Imágenes. Es posible obtener imágenes de piezas utilizando radiografías que reciben el nombre de gammagrafía y neutrografía. Por ejemplo, se puede comprobar la calidad en piezas cerámicas, detectar la humedad en materiales de construcción, etcétera.

a) Datación. Se emplean técnicas isotópicas para determinar la edad en formaciones geológicas y arqueológicas. Por ejemplo, se utiliza la técnica de carbono-14, para determinar la edad de fósiles.

CRONOLOGÍA

1938 — Otto Hahn, Lise Meitner y Fritz Strassman descubren en Alemania la fisión nuclear del uranio.

1942 — Primera reacción nuclear en cadena en un laboratorio de Chicago dirigido por Enrico Fermi.

1945 — El bombardero Enola Gay lanza la primera bomba atómica de fisión nuclear sobre la ciudad japonesa de Hiroshima. Poco después, los Estados Unidos lanzan la segunda sobre Nagasaki.

1949 — La Unión Soviética realiza su primera prueba nuclear en Kazajstán.

1952 — Estados Unidos hace explotar su primera bomba de fusión nuclear en el atolón de Bikini, en el Océano Pacífico. Los británicos realizan su primera prueba en las islas australianas de Monte Bello.

1956 — Gran Bretaña pone en marcha su primera central nuclear comercial, en Sellafield, con una potencia de 50 Mw. Francia pone en marcha su primera central nuclear experimental, en Marcoule, en el departamento de Chusclan, en el Gard, con una potencia de 7 Mw.

1959 — Francia pone en marcha dos nuevos reactores nucleares en Chusclan, de 40 Mw cada una.

1960 — Francia realiza su primer ensayo nuclear en el desierto del Sahara.

1968 — España construye su primera central nuclear de las nueve que posee actualmente, se llama José Cabrera y se encuentra en el término municipal de Almonacid de Zorita, en Guadalajara, junto al río Tajo, con una potencia de 160 Mw.

Fuente Consultada: Físico Químico de Pilar Escudero y Otros

Aplicaciones Energia Atomica despues de la Guerra Mundial Historia

Historia Evolución Tecnológica Post Guerra Mundial: La Energía Atómica

Aunque fue la culminación de varios años de intensas investigaciones, la explosión de las primeras bombas atómicas constituyó para el mundo entero un acontecimiento totalmente inesperado. De inmediato se hizo evidente, sin embargo, que era posible seguir dos líneas de desarrollo.

Una de ellas era puramente militar: cada una de las grandes potencias tenía que demostrar su capacidad de construir independientemente la nueva arma, si quería mantener su credibilidad militar. En aquel momento, la única forma de defensa parecía ser la capacidad demostrable de recurrir a represalias del mismo tipo. La segunda línea de desarrollo era la posibilidad de utilizar esta fuente totalmente nueva de energía no de manera descontrolada, como en la bomba, sino mediante el desarrollo de tecnologías completamente innovadoras que la controlaran y la pusieran al servicio de la industria.

Aplicaciones Energia Atomica

De hecho, los dos aspectos estaban estrechamente interrelacionados, como lo demuestran los acontecimientos en el Reino Unido. En ese país, hasta 1951, el programa de energía atómica había estado orientado en gran medida a los aspectos militares, que imponían la necesidad de producir plutonio.

A partir del mencionado año, las dos líneas comenzaron a acercarse dado que las pilas atómicas diseñadas para producir plutonio también se podían utilizar para generar energía eléctrica. Una de ellas fue la denominada Pippa, que producía plutonio y generaba electricidad como subproducto. Esta pila fue la base de energía de Calder Hall, la primera central nuclear importante del mundo, que se inauguró en 1956.

Sorprendentemente, teniendo en cuenta la enorme cantidad de dinero y trabajo que habían dedicado al proyecto Manhattan, los norteamericanos demostraron escaso interés por el desarrollo de la energía atómica como fuente controlada de electricidad en los primeros años de la posguerra. Sólo la marina norteamericana se dedicó a estudiar seriamente el tema, al reconocer su enorme potencial para mantener a las naves indefinidamente en alta mar, sin necesidad de repostar.

En 1955 se construyó el submarino Nautilus, primero de una larga serie de naves subacuáticas propulsadas por energía atómica. En 1959, los soviéticos produjeron el rompehielos nuclear Lenin. Sin embargo, tan sólo en 1957 se inauguró la primera central nuclear de Estados Unidos, en Shippingport, Pennsylvania.

También en este caso, los soviéticos se habían colocado a la cabeza, con la entrada en funcionamiento en 1954, en Obninsk (cerca de Moscú), de una pequeña central nuclear que utilizaba uranio como combustible y grafito como moderador. El calor generado en el núcleo del reactor pasaba en primer lugar a un sistema de circuito cerrado de agua a alta presión y luego era transferido a un sistema independiente de agua, que generaba el vapor necesario para poner en marcha las turbinas.

Un sistema en cierto modo similar de refrigeración por agua fue desarrollado por Estados Unidos para el reactor de Shippingport y por Canadá para los reactores Candu, construidos en los años 50.

La refrigeración por agua tiene la ventaja de ser sencilla y barata, pero tiene también sus inconvenientes. En caso de emergencia (por ejemplo, demasiado calor generado en el núcleo), el agua se convertiría rápidamente en vapor y dejaría de cumplir con su vital función de refrigeración. Por este motivo, Francia y el Reino Unido se inclinaron por los reactores refrigerados con gas, ya que éste no cambia de estado por mucho que se caliente. El primer reactor del Reino Unido, el de Calder Hall, tenía un sistema de refrigeración a gas.

Mientras tanto, en los años 50, se estaba desarrollando un nuevo tipo de reactor que utilizaba como combustible una combinación de uranio-238 y plutonio-239. Los neutrones generados por el plutonio interactúan con el uranio y producen más plutonio; de esta forma se consigue varias veces más energía que en los reactores convencionales con una misma cantidad de uranio.

El primer reactor de este tipo fue inaugurado en la localidad escocesa de Dounreay en 1959, y la central nuclear Phénix, de características similares, entró en funcionamiento poco después en Marcoule, Francia. Al finalizar la década de los años 40, se había dedicado considerable atención a la posibilidad de utilizar otro tipo distinto de refrigerante para los reactores. Se trataba del metal sodio, que funde a 98 °C, ligeramente por debajo del punto de ebullición del agua y muy por debajo de la temperatura normal de operación de los reactores.

Esquema de un Reactor Nuclear

Desde el punto de vista termodinámico, viene a constituir un medio interesante de transferencia del calor, pero presenta varios inconvenientes. Es un elemento muy reactivo químicamente, capaz de provocar corrosión en la mayoría de los materiales con los que entra en contacto. Más concretamente, reacciona de forma explosiva con el agua. Precisamente esta propiedad lo descartó como refrigerante para los reactores submarinos (tema que interesaba a la marina norteamericana), aunque los Laboratorios Argonne, cerca de Chicago, y General Electric, en Schenectady, habían realizado varios estudios.

La Conferencia atómica de 1955
Al final de la Segunda Guerra Mundial, Estados Unidos era la única nación que poseía la bomba atómica. Durante casi una década trató de mantener d «secreto» y, por medio de unas leyes draconianas y una reserva sin precedentes en tiempos de paz, intentó evitar que se propagaran los conocimientos de la tecnología nuclear. Sin embargo, en 1949 la Unión Soviética hizo estallar su primera bomba atómica.

Cuando Eisenhower ocupó el cargo de presidente de los Estados Unidos en 1952, al comprender que era inevitable que se propagaran los conocimientos nucleares, decidió adoptar dos iniciativas con el fin de internacionalizar la energía atómica y garantizar que la difusión de esta tecnología fuera aplicada con fines pacíficos y no militares.

En su famosa alocución titulada «Átomos para la paz», pronunciada ante la Asamblea General de las Naciones Unidas en 1953, propuso la fundación de la Agencia Internacional de Energía Atómica con el propósito de controlar la aplicación pacífica de dicha tecnología. La segunda iniciativa de los Estados Unidos llevó a la Conferencia Internacional sobre Usos Pacíficos de la Energía Atómica, celebrada en el Palais des Nations, en Ginebra, entre el 8 y el 20 de agosto de 1955.

En la conferencia fueron presentadas unas 450 ponencias científicas. Setenta y tres Estados y ocho agencias especializadas de las Naciones Unidas enviaron a sus respectivas delegaciones, las cuales estaban formadas por un total de 1.428 delegados, aparte de los 350 observadores procedentes en su mayor parte de universidades y empresas comerciales.

El extraordinario éxito de la conferencia, a la que asistieron 905 periodistas y en la que participaron numerosos expertos en ciencia nuclear, se debió a su carácter técnico más que político. Los científicos procedentes de diversos países, los cuales habían estado trabajando aisladamente, pudieron comprobar que básicamente habían llegado a las mismas conclusiones.

La ciencia y la tecnología han hecho grandes progresos desde 1955 y muchos países han comprobado que las ilimitadas perspectivas de una tecnología nuclear pacífica no eran tan benéficas como habían supuesto en un principio. Pero el intercambio de información entre Oriente y Occidente, el Norte y el Sur, contribuyó a aliviar las tensiones internacionales y sentó las bases para la creación de la Agencia Internacional de Energía Atómica, la cual está funcionando con éxito desde 1957, fecha de su fundación.

Concepto Físico de Energia Tipos y Ejemplos Trabajo Definición

Explicación Concepto de Energía

Si preguntamos con impaciencia qué es la energía no esperemos una respuesta rápida. La energía no es fácil de definir -entre otras cosas-por que no siempre podemos percibirla por medio de los sentidos.

Si nos piden que describamos una naranja, la podemos apoyar sobre un plato y mirarla para después olería, tocarla y probarla; en cambio, sería imposible colocar un poco de energía en el plato para arremeter con nuestros sentidos. Si bien la energía “no se ve”, puede percibirse por sus efectos.

Por ejemplo, se manifiesta como energía del movimiento en un cuerpo que cae, en forma de luz y calor en el fuego, como energía química en una pila que hace funcionar una radio, en el flujo de la corriente eléctrica que mantiene en servicio a los electrodomésticos, a escala nuclear en una gigantesca explosión y, aunque parezca increíble, “en la naranja que apoyamos sobre el plato” almacenada como energía de reserva.

Para empezar podríamos definir al concepto de energía, como la capacidad de realizar trabajo. Una persona que trabaja necesita disponer de una reserva de energía que, en este caso, procede de los alimentos que ingiere. La comida es una especie de combustible que se quema dentro de nuestro cuerpo, y una parte de la energía que se libera en el proceso de combustión es utilizada para mantener su temperatura, en tanto que otra es consumida por los músculos al moverse, lo que, en definitiva, constituye un trabajo mecánico.

En física, se realiza un trabajo cuando se traslada un peso a una cierta distancia. Su magnitud es el resultado del producto de la fuerza aplicada por la distancia recorrida, siempre que ambas tengan la misma dirección. Si se levanta un ladrillo de 1 kg. a 1 metro de altura, se realiza un trabajo para vencerla fuerza de la gravedad. La fuerza aplicada es de 1 kg. y, como se ejerce a lo largo de 1 metro, el trabajo realizado es 1 kilográmetro (1 kgm.).

Al realizar este trabajo, se comunica energía al ladrillo. La persona que lo levanta le transfiere parte de la energía procedente de los alimentos que previamente ha ingerido. La energía adquirida por el ladrillo está en la forma de energía potencial, o energía de posición. Si lo dejamos caer, la energía potencial se convierte en energía cinética (energía debida a su movimiento).

Al levantar el ladrillo, el hombre realiza un trabajo y le transfiere energía mecánica, que se convierte en energía potencial. El ladrillo ha adquirido mayor energía potencial, cuya magnitud está dada por el producto de la fuerza por la distancia (altura). Al dejar caer el ladrillo, la energía potencial que había adquirido anteriormente se convierte, ese momento, en energía cinética.

De hecho, energía y trabajo están íntimamente relacionados, aplicándose este último término al proceso de transformación entre dos tipos distintos de energía. La cantidad de trabajo realizado es igual a la cantidad de energía que el ladrillo adquiere. Si se levanta el ladrillo a una altura doble se realiza un trabajo también doble, y el ladrillo adquiere el doble de energía.

Un hecho tan simple como levantar un ladrillo y dejarlo caer es causa de que la energía sufra distintas transformaciones. En primer lugar, la energía química de las sustancias orgánicas complejas, contenidas en nuestros alimentos, se convierte, fisiológicamente, en energía calorífica.

Después, se transforma en energía mecánica (en nuestra mano), para convertirse, posteriormente, en la energía potencial adquirida por el ladrillo. Al dejarle caer, la energía potencial se transforma en energía cinética y, al chocar con el suelo, parte de esta energía cinética se convierte de nuevo en calor, y otra parte se transmite al aire como energía acústica.

Es posible seguir el curso de una cierta cantidad de energía en esta cadena de transformaciones, ligadas por la realización de un trabajo. La cadena puede ramificarse si, en una etapa determinada, la energía se transforma en otros el momento inicial que en cualquiera de las etapas seguidas en un determinado proceso. Este principio constituye la denominada ley de la conservación de la energía, que es uno de los principios fundamentales de la física.

La palabra energía deja de pertenecer exclusivamente al lenguaje común para ingresar al lenguaje científico en el año 1807. La propuesta nace del médico y físico inglés Thomas Young, profesor de Filosofía Natural, de la Royal Institution de Londres.Thomas YungEnergía, en griego significa trabajo y Young la empleó para describir muchos fenómenos que los físicos de la época denominaban fuerza viva y que en la actualidad denominamos energía cinética o energía del movimiento.

La definición de energía dada por Young fue ignorada durante muchos años. Según él, energía era la capacidad para realizar un trabajo. Generalizando, hoy en día trabajo es la “aplicación de un esfuerzo para realizar una tarea”.

Una grúa que levanta un contenedor realiza un trabajo. Ocurre lo mismo cuando una pelota rueda de un punto a otro o desplazamos una lapicera para dibujar una palabra en el papel. Tanto la grúa como la pelota y la lapicera deben sufrir la aplicación de una “fuerza”, por esto la física define al trabajo como “la aplicación de una fuerza a través de una distancia”. Dicho en otras palabras, un trabajo es la fuerza  que levanta, empuja o tira de un objeto a través de un número variable de metros.

La cantidad total de energía en el universo fue y será siempre la misma. Existen otros tipos de energía de especial importancia: energía luminosa, energía eléctrica y energía magnética, que pueden también transformarse en las otras modalidades de energía anteriormente descritas. Por ejemplo, es frecuente que se transformen entre sí las energías eléctrica, calorífica y luminosa; estas dos últimas se obtienen fácilmente de la primera.

La energía eléctrica es la que poseen los electrones cuando circulan por un circuito eléctrico sometido a una “presión eléctrica”; viene expresada por el producto de tres factores: la tensión, la intensidad y el tiempo. En las lámparas, la energía eléctrica se transforma en luz y calor.

Aunque su función primordial es la de proporcionar luz, las lámparas no son muy eficientes, y sus filamentos han de ponerse al rojo para poder emitirla. En una lámpara común, sólo un 5 % de la energía eléctrica se convierte en energía luminosa. El 95 % se transforma en calor. Los electrones, al fluir a través del circuito eléctrico, transfieren su energía al filamento de la lámpara, de igual forma que el hombre transmite energía al ladrillo al levantarlo o empujarlo.

Aunque la energía puede existir en muchas formas, tedas ellas son equivalentes. En el sistema cegesimal (basado en el centímetro, en el grano y en el segundo), la unidad de energía es el “ergio” el que puede expresarse cualquier tipo de energía. Para que los números que se obtengan en las medidas sean sencillas se han introducido otras unidades de energía, más adecuadas.

SISTEMA CEGESIMAL SISTEMA BRITÁNICO
Energía mecánica ERGIO
Si levantamos una masa de 1 gramo a la altura de un centímetro, adquiere una energía de 981 ergios.
LIBRA PESO-PIE
Energía adquirida al levantar una libra peso, un pie.
1 Ib. wt. ft. = 1,36
X 10″ ergios
Energía calorífica CALORÍA
Si hacemos subir 1°C la temperatura de 1 gramo de agua, ésta adquiere una energía calorífica de 1 caloría.
1 caloría = 4,19X 107 ergios.
B.T.U. (UNIDAD TÉRMICA BRITÁNICA)
Cantidad de energía calorífica que adquiere una libra de agua cuando su temperatura se eleva 1° Farenheit .
1 b.t.u. = 1,055
X 107
Energía eléctrica JULIO
Un julio es la energía desarrollada por una corriente de un amperio, cuando fluye durante un segundo a través de una diferencia de potencial de 1 voltio.
1 julio = 107 ergios.
No existe equivalente.
Energía de
partículas atómicas
ELECTRÓN-VOLTIO
Es la energía adquirida por un electrón acelerado a través de una diferencia de potencial de 1 voltio.
1 eV = 1,6X I»”12 ergios.
No existe equivalente.

Los electrones propios del filamento absorben esta energía y pasan a un estado excitado, encontrándose entonces en una posición similar a la que tenía el ladrillo después de haberlo levantado. Los electrones excitados pasan, casi inmediatamente, al estado original, con la consiguiente emisión de un tipo especial de energía, que afecta la porción sensible de la retina del ojo.

El cerebro humano interpreta esta impresión como una sensación luminosa. El Sol es, prácticamente, la fuente de toda la energía recibida por la Tierra. Parte de dicha energía es luz visible, pero otras porciones son invisibles.

EL SOL

El aparentemente sólido sol es en realidad una bola gaseosa opaca de hidrógeno. Su núcleo interno está en constante estado de fusión con liberación de enormes cantidades de luz y calor. Esto se hace perceptible a partir del halo de un eclipse.

La energía electromagnética (que comprende la energía luminosa) transmitida por el Sol es absorbida por las plantas y transformada en energía química, pues éstas la utilizan para sintetizar sustancias orgánicas complejas. La energía química es la principal fuente de energía directamente aprovechable por el hombre, y sus alimentos y combustibles lo confirman claramente.

La hulla, por ejemplo, proviene de restos vegetales que absorbieron energía luminosa del Sol, hace millones de años, y que puede ser liberada al quemarse este carbón. Dentro de la física, la energía es una magnitud de gran importancia, por la razón de que no puede ser destruida.

Si para un determinado proceso realizamos un cómputo energético, la energía inicial es igual a la final. Por este motivo, la energía es una magnitud cuya medida resulta siempre útil. La aparición de esta magnitud en todas las ramas de la física refuerza su importancia. Es la única que interviene tanto en mecánica, como en óptica, termodinámica, acústica, electricidad, magnetismo, física nuclear, etc.

Muchas de las distinciones establecidas entre las diversas ramas de la física no están muy bien definidas precisamente porque la energía puede transformarse, al mismo tiempo, en dos o más modalidades. Un ciclista, al mover los pedales, está realizando un trabajo.

La fuerza que ejercen sus pies se transmite a las ruedas y las hace girar. La energía desarrollada por el ciclista se transforma en energía cinética, ya que tanto él como la bicicleta se mueven. La dínamo de la bicicleta convierte una pequeña fracción de la energía cinética en energía eléctrica, que se usa para calentar el filamento de una lámpara y hacer que ésta emita energía luminosa.

TIPOS DE ENERGÍA
La energía calórica encuentra su origen en cualquiera de las otras formas: si martillamos un clavo (energía mecánica), la cabeza del clavo se calienta; el Sol nos da su calor en el frío invierno y nos broncea en el verano (energía radiante); la corriente eléctrica y el gas natural (energía química) son capaces de proporcionarnos calor en las épocas de baja temperatura.

La energía lumínica nos es tan familiar que a veces no somos capaces de valorarla.

La energía química, es la que nos proporcionan los alimentos y los combustibles. Un dispositivo ingenioso proporciona energía eléctrica a expensas de una reacción química: la pila.

la energía eléctrica es un fenómeno de naturaleza parecida a la de los imanes y la que recibimos a diario desde la usina generadora. Se origina en una turbina que desarrolla energía mecánica a partir de la energía química que le proporciona el combustible.

La energía nuclear es la manifestación energética que el hombre ha descubierto más recientemente. Es también la más peligrosa porque aún no se la sabe controlar perfectamente y puede ser usada con fines no pacíficos. Esta energía se obtiene destruyendo el núcleo del átomo.

Si la operación es controlada, esa energía servirá para mover la turbina que fabrica electricidad ; si no se controla, se revivirán episodios tristes como el de Hiroshima y Nagasaki en la Segunda Guerra Mundial.

La energía mecánica la más familiar para todos, y no es más que la que se pone en juego en el movimiento del cuerpo de una maquinaria, el simple acto de martilla o golpear el parche de un tambor, el arrojar una piedra o batir un pote de crema. La física la clasifica en energía potencial y energía cinética.

La energía potencial es la que guardan come reserva los cuerpos en reposo. Cuando un niño de cuatro años ya lee y escribe todos dicen que el un “genio en potencia”; quieren decir que aún no es un genio, pero lleva en sí mismo cualidades “potenciales” que le permitirán serlo en el futuro.

En cambio la energía cinética (de kinema que en griego significa movimiento) es la energía que los cuerpos gastan al ponerse en movimiento. La energía cinética se diferencia de la potencial porque en aquélla influye un nuevo factor: la velocidad con la que el cuerpo se mueve. La humanidad todavía no tiene la última palabra en el tema energético. “Le llevó toda su existencia descubrirla y todavía no ha terminado de hacerlo”.

MASA Y ENERGÍA:

La materia misma es una fuente de energía. Una masa pequeñísima es equivalente a una gran cantidad de energía. Concretamente, un gramo es equivalente a 931.000.000.000.000.000.000 ergios No es fácil, sin embargo, transformar la masa en energía. Esto sólo puede realizarse en circunstancias especiales; por ejemplo, en un reactor nuclear. Los átomos de uranio, al desintegrarse, “pierden” una pequeña fracción de su masa, la cual se convierte en energía.

Si un átomo fuera un estadio de fútbol, su núcleo sería como una mosca en el centro del campo de juego. Pero cuando se divide un núcleo inestable como el del Uranio, la energía desprendida por unos pocos kilogramos de este metal es equivalente a la explosión de miles de toneladas de TNT. Esta reacción llamada fusión ocurre normalmente sin detenerse en el sol.

El hombre reproduce este fenómeno en las usinas nucleares y en las bombas atómicas. Las bombas H tienen un poder que ronda las cien kilotoneladas (1 kilotonelada es igual a 1000 toneladas de TNT).

E=m.c2

La conversión teórica de masa en energía conduce a cantidades asombrosas. Estos ejemplos representan el equivalente de un kilogramo de masa convertido en energía:

– una plancha eléctrica encendida un millón de años.
– un acondicionador de aire en marcha 300.000 años.
– una caldera doméstica encendida sin parar de 25.000 a 30.000 años.
– un automóvil que da 180.000 veces la vuelta al mundo.
– el mayor buque cisterna dando 400 veces la vuelta al mundo.

Un escape pequeño puede ser grandísimo…
Einstein explicó la cantidad de energía que se pierde al transformarse la masa en energía, con la ecuación:

E=m.c2

Esta fórmula ha iniciado la era atómica y ha aclarado el mecanismo del sol como fuente de energía solar. La fórmula encierra la afirmación de que la masa puede transformarse en energía y viceversa. “E” quiere decir energía; “M” significa masa y “C” representa la velocidad de la luz en el vacío, es decir 300.000 kilómetros por segundo.

Elevando “C” al cuadrado (multiplicando el valor indicado por sí mismo), resulta una cifra astronómica. Quiere decir que una pequeña cantidad de masa puede transformarse en una gigantesca cantidad de energía. Pensemos en una bomba atómica, o en el Sol, que perdiendo una cantidad insignificante de materia, ha podido irradiar energía durante tanto tiempo y estará en condiciones de hacerlo por miles de millones de años.

FUENTES DE ENERGÍA: Se denominan fuentes de energía o recursos energéticos todos aquellos componentes de la Naturaleza a partir de los cuales es posible obtener energía utilizable por el hombre. Casi todas las fuentes de energía proceden en última instancia del Sol. Esta energía solar, o bien se utiliza directamente, o bien da lugar a la formación del resto de los recursos energéticos

 Así, las plantas utilizan directamente la energía solar para producir sus alimentos, con lo que crecen y se desarrollan, originando a su vez nuevos recursos energéticos como el carbón, que procede de la fosilización de cantidades inmensas de plantas que han estado enterradas durante miles de años.

Las fuentes de energía se clasifican normalmente atendiendo al carácter de que se agoten al paso del tiempo o de que sean prácticamente inagotables. Así, se distinguen las energías renovables y las energías no renovables.

« Son energías renovables aquellas que existen en cantidades ilimitadas y, por tanto, no se agotan por mucho que se utilicen. Entre las energías renovables están la energía solar, la hidráulica, la eólica. la de la biomasa y la maremotriz.

» Son energías no renovables aquellas que existen en cantidades limitadas en la Naturaleza, de forma que se agotan a medida que se van utilizando. Entre las energías no renovables están la energía del petróleo, la del carbón, la del gas natural, la geotérmica y la nuclear.

Las fuentes de energía también pueden clasificarse atendiendo a la incidencia que tengan en la economía de un país en un momento determinado. Así se tienen las energías convencionales  y as energías no convencionales.

• Se llaman fuentes de energía convencionales aquellas que tienen una ¿reincidencia en el consumo energético de los países industrializados.

Entre las fuentes de energía convencionales se pueden citar todas las fuentes de energía no renovables y la energía hidráulica.

• Se llaman fuentes de energía no convencionales o energías alternativa aquellas que hoy día se encuentran en fase de estudio con el propósito de  sustituir o reforzar en un futuro a las fuentes de energía convencionales. Entre las fuentes de energía no convencionales se pueden citar la energía  solar, la eólica, la maremotriz, la geotérmica, la de la biomasa, etc.

Fuente Consultada:
Revista TECNIRAMA N°67
FÍSICA II Polimodal
FÍSICO-QUIMICA Secundaria Santillana

Explicacion de las leyes de la termodinamica Descripciòn Sin Formulas

BREVE EXPLICACIÓN SIN FORMULAS DE LAS LEYES DE LA TERMODINÁMICA

Una de las leyes fundamentales de la física es que no se puede obtener algo de la nada. Por ejemplo, el motor de un coche no funciona ni el depósito del combustible está vacío. Antes de que el motor pueda suministrar energía mecánica al coche, es preciso que le demos, como mínimo, la misma cantidad de energía en forma diferente, por ejemplo, la energía química del combustible.

Pero la ley también afirma lo contrario: no se puede transformar algo en nada. Si la mezcla de gas combustible y aire se quema en los cilindros del motor, es imposible que no salga ningún tipo de energía del motor. No toda la energía que sale de éste es de la oíase que nosotros deseamos, es decir, energía mecánica para mover el coche, sino que la mayor parte se transforma en calor, con lo que se desperdicia. Pero, ya sea energía perdida en forma de calor o energía mecánica útil, la cantidad total de energía es exactamente la misma que la liberada por el combustible. En ningún caso se puede perder algo de energía.

Esta ley se conoce como ley de la conservación de la energía, y afirma que la energía no se puede crear ni destruir. Asimismo, es parte intrínseca de la primera ley de la termodinámica. La termodinámica es una rama de la física que trata, entre otras cosas, del transporte del calor de un lugar a otro, y de la conversión de la energía calorífica en otras formas de ella.

Además de afirmar que la energía se conserva, la primera ley define la energía calorífica y la energía mecánica. Parece obvio afirmar que la energía mecánica es la clase de energía ligada al movimiento que posee cualquier objeto que se mueve, mientras que la energía calorífica es algo que hace que los cuerpos estén más calientes.

Sin embargo, a menudo, la distinción entre estos dos tipos de energía no es tan clara y terminante. En el cilindro de un motor de combustión interna, por ejemplo, la mezcla de los gases se comprime o expande, según los pistones suban o bajen en el interior del cilindro. La mezcla gaseosa entra en ignición cuando su volumen es mínimo, es decir, en el instante en que se completa su compresión. En ese momento, la energía calorífica procedente de la reacción química se comunica al gas.

Un gas calentado se expande siempre que tenga oportunidad para ello. Debido a que su energía ha aumentado, las moléculas empujan contra todas partes, tratando de separarse, y, al hacerlo, actúan sobre el pistón forzándolo a moverse. Se dice que el gas trabaja contra el pistón y, a medida qué ello ocurre, parte de su energía calorífica primitiva se transforma en energía mecánica, que llega a las ruedas por intermedio de un complejo mecanismo.

La energía que resulta de la expansión y el trabajo realizado es la energía mecánica. Pero los gases están siempre más calientes que antes de la explosión, esto es, retienen siempre cierta cantidad de energía.

Este otro tipo de energía se denomina energía calorífica interna. La primera ley de la termodinámica afirma que la energía interna, junto con la energía mecánica, es igual a la energía calorífica suministrada a los gases inicialmente.

La termodinámica nunca trata el movimiento de las partículas aisladas que forman la materia considerada (en nuestro caso, las moléculas del gas). Esta ciencia trata sólo del comportamiento del gas en conjunto. Es fácil para la termodinámica manejar cantidades tales como la presión, temperatura y volumen de un número relativamente grande de moléculas, cuando todas ellas se comportan, más o menos, del mismo modo. Pero, aunque la termodinámica nunca se preocupa de las moléculas aisladas, la energía interna y la energía mecánica tienen su significado cuando se aplican a las propias moléculas.

La vibración de las moléculas se debe a la energía interna y, cuanto más caliente está una molécula, más vibra. La energía que aumenta la velocidad de las moléculas y hace que el gas, en conjunto, se expanda es la forma de energía que se puede convertir en energía mecánica.

LA SEGUNDA LEY DE LA TERMODINÁMICA

Si se ponen en contacto un recipiente de agua hirviendo y un plato con hielo, el agua se enfría y el hielo se calienta. Hay un intercambio de calor entre el agua hirviendo y el hielo, y pasa más calor del agua al hielo que del hielo al agua.

Es decir: el calor siempre va “cuesta abajo”, desde el objeto más caliente al objeto más frío. No es posible que el calor vaya “cuesta arriba” por sí mismo; por ejemplo, de un objeto frío a otro caliente. Esta afirmación es una de las muchas maneras de enunciar el segundo principio de la termodinámica.

La termodinámica es una rama de la física, que se ocupa de las cantidades de calor que van de un lugar a otro, y de la transformación de la energía calorífica en otras formas de energía. El principio (ley) cero de la termodinámica define la significación de la temperatura. El primer principio establece que si tenemos una cierta cantidad de calor, podemos convertirla en otra forma de energía; pero, hagamos lo .que hagamos, no podemos conseguir que desaparezca. Cuando en dos objetos a distinta temperatura existe una cierta cantidad de energía, el segundo principio rige la dirección del flujo de energía calorífica de un objeto a otro.

La termodinámica abarca, fundamentalmente, una serie de desarrollos matemáticos, y existen muchas otras maneras matemáticas de definir el segundo principio de la termodinámica. Sin embargo, todas ellas se resumen, diciendo, simplemente, que es imposible que el calor, por sí solo, vaya “cuesta arriba”.

En un refrigerador doméstico se hace que el calor vaya “cuesta arriba”. Para ello, debe absorberse calor del congelador, que es el lugar más frío del refrigerador. Se extrae de un lugar frío y se cede a un lugar más caliente: el aire que rodea al refrigerador. Pero el calor no puede hacer esto por sí solo.

En muchos de ellos (los de compresor), el movimiento “cuesta arriba” del calor, del objeto frío al caliente, es ayudado por un motor eléctrico, mientras que el calor en sí es transportado por el vapor, en tubos. Por lo tanto, se usa energía (por el motor) para transferir el calor. Se hace que el vapor se condense, y entonces se lo expansiona bruscamente.

Al expansionarse, se enfría hasta que su temperatura queda por debajo de la parte más helada del congelador. Solamente así se puede extraer calor de éste, pues, de acuerdo con el segundo principio, el calor sólo puede pasar a un objeto más frío. Después, el motor comprime el gas, su temperatura sube nuevamente, y de esta forma puede ceder su calor al aire exterior. Luego, el gas se expansiona, se enfría, y todo el ciclo se repite continuamente.

Sería mucho más fácil fabricar refrigeradores, si el segundo principio de la termodinámica fuese falso. Si, por ejemplo, el calor pudiese ir, por sí solo, desde el plato con hielo al recipiente de agua hirviendo, el hielo se enfriaría más y el agua herviría con mayor intensidad. El calor extraído al hielo podría aprovecharse para hervir el agua. Los refrigeradores no necesitarían motores ni circulación de líquidos. Desgraciadamente, esto no ocurre, y esa imposibilidad es la mejor prueba en apoyo del segundo principio de la termodinámica.

LA TERCERA LEY DE LA TERMODINÁMICA

A Fahrenheit no le gustaba la idea de tener que operar con temperaturas negativas. Por eso, al idear su escala de temperaturas, quiso asegurarse de que nunca encontraría una temperatura negativa. Fijó como punto cero de la escala, 0°F, la temperatura de la sustancia más fría entonces conocida, una mezcla frigorífica de hielo y sal. Sin embargo, hace tiempo que esta ventaja en la escala Fahrenheit ha desaparecido. Se han desarrollado métodos que permiten alcanzar temperaturas mucho más bajas, que son temperaturas negativas en la escala Fahrenheit.

El método principal consiste en enfriar un gas, comprimirlo y luego dejarlo expandir de repente. En estas condiciones, muchos gases se enfrían considerablemente. Por medio de algunos sólidos, todavía pueden alcanzarse temperaturas más bajas, enfriándolos mientras se encuentran en un fuerte campo magnético. Cuando se suprime el campo, la temperatura del sólido desciende aún más.

Hay, sin embargo, un límite perfectamente definido para el enfriamiento alcanzado en estos procesos. Existe un cero natural de temperatura, el cero absoluto, que es definitivamente la temperatura más baja posible. Mientras que la “temperatura más fría posible” de Fahrenheit no duró mucho tiempo como tal, en cambio no hay probabilidad alguna de alcanzar nada más frío que el cero absoluto.

Parecía evidente a los científicos, al observar el comportamiento de los gases sometidos a enfriamiento, que debía existir un cero absoluto. En efecto, comprimieron los gases enfriados. Se midió la velocidad de compresión y se llegó a la conclusión de que, si pudiera continuarse el enfriamiento por debajo de —460°F (—273° en la escala centígrada), el volumen del gas habría quedado reducido a nada. ¡Evidentemente, sería imposible lograr un gas más frío que el cero absoluto, donde ocuparía un espacio negativo!

Si bien se reconoció como cosa imposible alcanzar una temperatura más baja que el cero absoluto, persistía todavía el problema: ¿Era incluso posible alcanzar el cero absoluto mismo? Y aunque actualmente los científicos están a unas cuantas millonésimas de grado de alcanzarlo, es bien sabido que, realmente, jamás lograrán conseguirlo. Esta afirmación es una de las maneras de enunciar la tercera ley de la termodinámica: “Por mucho que tratemos de enfriar una cosa, es imposible enfriarla por debajo del cero absoluto.”

Los científicos han constatado que cuanto más fría está una sustancia, tanto más difícil es conseguir nuevos enfriamientos. Aislar la sustancia y protegerla del calor del laboratorio es prácticamente imposible. Las sustancias a bajas temperaturas, invariablemente, se guardan en recipientes de vacío especialmente diseñados. Pero no es ésta la razón principal de que no pueda alcanzarse la mínima temperatura posible.

El único método de enfriamiento adecuado es, por consiguiente, aquél en que se enfría una clase especial de cristal hasta pocos grados del cero absoluto, con helio líquido. Al mismo tiempo, el cristal se mantiene en el campo magnético de un grande y potente electroimán. El helio líquido se quita, el cristal se aísla por completo y el campo magnético se desconecta lentamente. Tienen lugar cambios en la manera en que los átomos están dispuestos en el cristal, y el resultado es un descenso de la temperatura. Teóricamente, entonces sería posible usar este cristal enfriado para, a su vez, enfriar otro cristal, y repetir el proceso de magnetización y desmagnetización sucesivamente, llegando cada vez más cerca del cero absoluto.

Desgraciadamente, sucede que, al bajar la temperatura, este descenso se vuelve cada vez más pequeño, de forma que para un cristal de temperatura muy cercana al cero absoluto, el descenso de ésta llega a ser infinitamente pequeño. Por muchas veces que los cristales sean sucesivamente enfriados, los descensos de temperatura son tan minúsculos, que el cristal nunca alcanzará el cero absoluto.

Fuente Consultada: Revista TECNIRAMA Nª 78.

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La “Máquina de Dios”, como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la “gran ciencia”,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL “GRAN COLISIONADOR DE HADRONES”
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Suiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Naturaleza de la Materia

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. “Y entonces Gauss, ¿qué?”, preguntó el asombrado von Humboldt. “Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.”

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo “Halla la suma de los 100 primeros números enteros”.

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por “malgastar”su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al “análisis situs” y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte “shock”. Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra “Disquisitiones Arithmeticae”, obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del “nuevo planeta”, llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Biografia de Albert Einstein Vida y Obra Cientifica del Físico

Biografía de Albert Einstein
Vida y Obra Científica del Físico

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Biografia de Albert Einstein Vida y Obra Cientifica del Físico* Puedes Bajar Una Biografía Completa de Albert Einstein

Albert Einstein tuvo una crianza normal. Nació en 1879 en la ciudad de Ulm, Alemania, y creció en Munich, donde asistió a una escuela católica (a pesar de ser judío). Sus padres, Hermann y Pauline, temieron que el niño fuera retrasado porque se demoró en hablar.

Por supuesto, sus temores eran infundados; el joven Albert estuvo entre los mejores estudiantes en la escuela elemental. En el colegio y en la universidad, sin embargo, Einstein fue tan independiente que a menudo se enfrentó a sus maestros y profesores.

Los Primeros Años: Albert Einstein nació el viernes 14 de marzo de 1879 a mediodía. En el verano de 1880, cuando Albert tenía poco más de un año, su familia se trasladó a Munich, donde su padre y su tío abrieron un negó-ció de ingeniería eléctrica (para reemplazar un negocio anterior que había fracasado). A finales de 1881, cuando Albert tenía dos años y medio, nació su hermana. La llamaron Marie, pero todos le decían Maja.

El nuevo negocio de Hermann Einstein iba bien y, cinco años después de su traslado a Munich, los Einstein compraron una linda casa con un gran jardín, en donde Albert y Maja pasaban muchas horas jugando. Albert y Maja eran muy apegados de niños, y de adultos mantuvieron una cariñosa relación. La mayor parte de lo que sabemos hoy sobre la niñez de Einstein se le debe a Maja, quien años después escribió un librito sobre los primeros años de su hermano.

Maja describe a Albert a la edad de cuatro años como un niño tranquilo, aislado, que no disfrutaba jugando con otros niños. Escribió que sus padres temían que Albert fuera retrasado pues aprendió a hablar muy tarde. Einstein recordaría después que sus padres lo llevaron donde el médico para saber si su lento desarrollo del lenguaje indicaba que algo iba mal.

La demora de Albert pudo haberse debido a timidez y orgullo; incluso a los dos años de edad quería hacer las cosas bien y evitar la faltas. Albert dijo más tarde que cuando joven había tomado la decisión da hablar sólo con frases completas. Ensayaba la frase entera  en su mente, a veces moviendo los labios, y cuando pensaba que la tenía lista la decía en voz alta.

Se puede decir que los primeros años de la vida de Einstein fueron estimulantes y colmados de afecto. Cuando tenía cuatro o cinco años, estando enfermo en cama, su padre le regaló una brújula magnética. El movimiento de la aguja, que volvía siempre a la misma dirección debido a un. misteriosa y desconocida causa, dejó en el niño una impresión tan “profunda y duradera” que escribió 60 años después sobre el asunto en sus notas autobiográficas.

¿Por qué se comportaba la brújula de esa manera? Esto era algo que Albert necesitaba comprender. Comenzamos a ver en este niño, maravillado por el movimiento de la aguja de la brújula, los comienzos del gran genio que revolucionó nuestro conocimiento del mundo. Aun a tan tierna edad, Einstein se sintió atraído por lo que se convertiría en uno de sus estudios favoritos: el electromagnetismo

Hermann y Pauline no eran judíos practicantes; les preocupaba más la educación de su hijo que las prácticas religiosas, de modo que matricularon a Einstein, a la edad de cinco años, en la escuela católica de la localidad, que era mejor, más cercana al hogar y más barata que la judía.

No existen pruebas de que Einstein hubiera sido objeto de discriminación religiosa en la escuela, a pesar de ser el único judío matriculado. No obstante, el joven Einstein no era feliz con la estricta disciplina de la institución. Se da por hecho que la mayoría de los niños detestan la disciplina, pero Einstein le profesaba una aversión que duró toda la vida.

A pesar de su disgusto con la escuela obtenía informes excelentes. A los siete años, por ejemplo, Pauline escribió a su madre: “Ayer le entregaron a Albert las calificaciones; de nuevo sacó el primer puesto y obtuvo un resultado brillante”. Un año después el abuelo escribía: “Hace una semana que el querido Albert ha vuelto a la escuela. Adoro a ese muchacho, porque no pueden imaginarse lo bueno e inteligente que es” (¿conoce alguien a un abuelo que no crea que su nieto es “bueno e inteligente”?)

Muchos testimonios sobre la vida de Einstein lo pintan como un niño lerdo, tal vez con un problema de aprendizaje. Más tarde el propio Einstein escribió que su desarrollo intelectual se había retardado y, en consecuencia, había comenzado a pensar sobre el espacio y el tiempo sólo a la edad adulta, no cuando niño.

Cuando Einstein tenía 13 años, un estudiante de medicina llamado Talmud le llevó la Crítica de la razón pura de Emanuel Kant, libro denso y difícil aun para los estudiantes de filosofía. Según Talmud, Einstein no se sintió amilanado, y desde ese momento los dos amigos hablaron de filosofía durante las visitas nocturnas de los miércoles. Durante varios años estudió Einstein otros libros de filosofía, a la par con sus lecturas científicas. Continuó interesado en el tema toda su vida, y a menudo discutía en sus escritos las opiniones de conocidos filósofos.

Talmud también le proporcionó varios libros de divulgación científica, que el muchacho leía entusiasmado. En particular, estaba encantado con un conjunto de 21 libros titulado Libros populares sobre la ciencia natural de Aaron Bernstein. Más tarde dijo que había leído cinco o seis volúmenes de la serie con “atención extrema”. Estos libros le procuraron una comprensión básica de la física y probablemente le ayudaron a desarrollar su asombrosa habilidad para descubrir en sus lecturas lo que era importante y lo que no lo era.

Einstein se interesó cierto verano en un texto de geometría que había recibido varios meses antes de que comenzara el año escolar. Comenzó a trabajar los problemas y le mostró sus soluciones a Talmud. Al finalizar el verano no sólo había resuelto todos los problemas del libro sino que había intentado pruebas alternas de los teoremas. Años después manifestó que este libro —al que llamaba su “libro sagrado de geometría”— había sido probablemente la causa de que se convirtiera en hombre de ciencia.

Para sus profesores del liceo Luitpold, el joven Albert Einstein nada tenía de superdotado: lo consideraban más bien como un alumno reacio a la autoridad, al que llegado el caso amonestaban en forma severa: «¡Por su sola presencia, usted altera el respeto de la clase hacia mi persona!», le espetó un docente.

El modelo prusiano que se propaló en Alemania a fines del siglo XIX y la militarización de la sociedad en su conjunto no le inspiraban más que aborrecimiento. Todo aprendizaje «de memoria» le repugnaba profundamente.

A los 11 años comenzó Einstein a recibir clases de religión, como era costumbre entre los estudiantes judíos. Sus padres no eran judíos practicantes y Einstein creció resentido con ellos porque no observaban las tradiciones religiosas. De suerte que decidió ser un ejemplo para la familia guardando el sábado, comiendo sólo alimentos kosher y hasta componiendo canciones religiosas que canturreaba mientras iba camino del colegio. El fervor religioso no le duró pues muchas cosas de la Bilbia se contradecían con lo que había aprendido en los libros de ciencias.

A los dieciséis años, sin terminar sus estudios secundarios, abandonó la escuela y Alemania: quería a toda costa evitar el servicio militar, adoptando la nacionalidad suiza. A raíz de un revés de la fortuna de su padre, que dirigía un negocio de equipos eléctricos, se exilió en Italia.

En 1895, el hijo se reunió con su familia en Pavia y preparó como candidato libre, con un año de anticipo respecto a la edad requerida, la prueba de ingreso al Instituto politécnico federal de Zurich, que formaba ingenieros. Fracasó en esa ocasión, pero tuvo éxito en el segundo intento, en octubre de 1896. Sentado en los bancos de esta institución austera, Einstein se enamoró de Mileva Marie, con la que se casaría sólo después de la muerte de su padre, en 1902: en efecto, el idilio suscitó la oposición de los padres de Albert.

Mientras estudiaba  fundó en esa época con sus amigos Maurice Solovine y Conrad Habicht la «Academia Olympia», que designaba con una solemnidad engañosa sus encuentros de estudiantes, amenizados con conversaciones filosóficas. Una vez obtenido su diploma en julio de 1900, Einstein buscó en vano un puesto de asistente en la universidad, pero sólo consiguió empleos precarios. Solamente un año y medio más tarde ingresó en la Oficina federal de patentes de Berna, trabajo que le dejaba suficiente disponibilidad de tiempo para dedicarse a los problemas de física que lo apasionaban.

LOS ARTÍCULOS DE 1905

El empleo en la administración pública le dio libertad para concentrarse en la ciencia. En el productivo año de 1905 publicó en la revista alemana Annalen der Physik su tesis doctoral y cinco artículos importantes. El primero, sobre el efecto fotoeléctrico de la luz, demostraba la teoría de Max Planck de que la luz se emite en paquetes, o cuantos, lo que revalidaba la física cuántica. Otros dos artículos trataban sobre el movimiento browniano, que es el que se produce en las partículas inmersas en un fluido al ser bombardeadas por las moléculas, lo que hace que tiemblen.

No obstante, la obra por la que es más famoso Einstein presentaba algo revolucionario: la teoría de la relatividad especial, una idea que al propio Einstein le costó aceptar. «Debo confesar —escribió más tarde—, que en el mismo comienzo, cuando la teoría de la relatividad especial empezaba a germinar dentro de mí, sufrí toda clase de conflictos nerviosos.»

 La relatividad especial introdujo el concepto de universo de cuatro dimensiones tejido a partir del espacio-tiempo: las tres dimensiones habituales más el tiempo. A las distancias insignificantes de la vida ordinaria, este concepto apenas hace mella, pero cuenta en las distancias astronómicas; cuando miramos hacia las estrellas, miramos hacia el espacio exterior y hacia atrás en el tiempo.

La física pasaba entonces por una crisis profunda. Las dos ramas principales de la disciplina, la mecánica -la ciencia del movimiento de los cuerpos- y el electromagnetismo -la ciencia de la luz- se contradecían en numerosos puntos, sumiendo a los investigadores en un callejón sin salida. En el primer artículo, Einstein atacó la concepción oficial según la cual la luz era una onda continua sostenida por el «éter», una sustancia inmóvil.

Para Einstein, al contrario, la luz «estaba constituida por un número finito de cuantos de energía localizados en puntos del espacio»: por lo tanto, era discontinua por definición. Einstein resolvió de este modo los problemas insolubles planteados por las supuestas propiedades de este éter: ¡éste no existía! No contento de haber puesto de acuerdo a sus colegas, Einstein esbozó uno de los ejes esenciales de la física moderna: la teoría cuántica.

El cuarto artículo, intitulado Sobre la electrodinámica de los cuerpos en movimiento, era muy revolucionario, según admitió el propio Einstein. Rechazó la idea de un tiempo absoluto e idéntico en todas partes. Por el contrario, afirmó que el tiempo era relativo. La única salvedad enunciada por el físico a este carácter móvil del tiempo era que la velocidad de la luz representaba un límite absoluto. Se llegó entonces a una teoría de la «relatividad restringida».

En un apéndice, Einstein desarrolló una idea totalmente nueva, al demostrarla equivalencia entre masa y energía: este descubrimiento se conoce de manera universal bajo la fórmula matemática E = mc2. Al comienzo, estos artículos pasaron inadvertidos, pero suscitaron luego el interés del gran investigador alemán Max Planck. Entonces se abrió un futuro brillante para Einstein. Nombrado en la universidad de Zurich en 1909, fue invitado al congreso de Solvay de 1911, que reunió a todos los grandes nombres de la comunidad científica internacional. Ese mismo año, Planck le propuso la dirección del Instituto de física Kaiser Wilhelm en Berlín.

El descubrimiento de la relatividad restringida no era empero más que el preludio de un cuestionamiento más avanzado de la física clásica, aún marcada por los descubrimientos de Newton y de Maxwell. A partir de 1907, Einstein se dedicó a la teoría de la gravitación. Tan sólo en 1915 formuló definitivamente la teoría de la relatividad general, que consideraba la gravitación como una deformación del espacio-tiempo.

La relatividad especial derrocó el supuesto newtoniano de que el espacio y el tiempo eran fijos. Operando a partir del principio de que el único imperativo cósmico es la velocidad de la luz, que en el vacío es siempre de 300.000 kilómetros por segundo, cualquiera que sea la localización del observador, Einstein se dio cuenta de que el tiempo y el espacio eran magnitudes que dependían de a qué velocidad y en qué dirección se moviera el observador. (puede entender de una manera fácil la teoría de relatividad desde aquí)

Una de las consecuencias de esta teoría fue verificada de manera experimental en 1919: los rayos de luz no atravesaban el espacio siguiendo una línea recta debido a la modificación de la forma del espacio-tiempo por las masas que allí se encuentran. Eso era, a lo menos, lo que afirmaba Einstein.

La teoría de la relatividad general ampliaba la teoría de la especial al ocuparse de lo que ocurre cuando cambia la velocidad. (De este trabajo procede la asombrosa paradoja de que si un gemelo se va de la Tierra, viaja en una nave espacial a muy altísima velocidad, da la vuelta y regresa, a su llegada será más joven que el gemelo que se quedó en casa.).

La teoría general demostraba que la masa hacía que el espacio se curvase a su alrededor. Imagínese una bola de bolera americana sobre una cama de agua. El colchón se curvará debajo de la bola. Póngase una canica sobre la cama de agua e inevitablemente caerá hacia la bola grande. Einstein se dio cuenta de que las masas menores caen hacia las mayores, no porque las masas mayores las «atraigan», sino porque los objetos se mueven por un espacio curvo. Este inevitable movimiento hacia la masa más pesada, demostró Einstein, explicaba el fenómeno conocido como la gravedad.

Las observaciones de una expedición científica inglesa realizada por el astrónomo Eddington durante un eclipse validaron sus previsiones: Einstein alcanzó entonces notoriedad internacional y se convirtió para el mundo en el nuevo Newton. Además, la idea de que observadores ingleses validasen los trabajos de un alemán les agradó a las muchedumbres que veían en ello el signo de un nuevo entendimiento internacional después de cuatro años de guerra homicida en Europa.

A pesar de este éxito manifiesto, el premio Nobel de física otorgado a Einstein en 1921 recompensaba sus trabajos sobre el efecto fotoeléctrico y no aquellos sobre la relatividad, que suscitaban aún mucha; reservas por su aspecto innovador.
«Dios no juega a los dados»

En 1905, Einstein había sido el iniciado de la teoría cuántica. Sus ideas fuero-retomadas y desarrolladas por jóvenes físicos agrupados en torno al danés Niels Bohr. Este último y Einstein fueron muy amigos, pero el desacuerdo científico era profundo y culminaría en 1927 con ocasión del quinto congreso de Solvay, en Bruselas. Einstein y Bohr realizaron feroces intercambios de réplicas. Las objeciones de Einstein a los desarrollos de la teoría cuántica estaban especialmente motivados por la imposibilidad de prever con certeza la posición de un electrón.

Este carácter «probabilista» de la teoría cuántica lo indisponía: para él, «Dios no juega a los dados». Rígido en esta postura de rechazo, Einstein se apartó un poco de las investigaciones más avanzadas, al considerar que la teoría cuántica solamente representaba una fase provisional del conocimiento físico.

La mayor ambición de los dos últimos decenios de su vida era elaborar una teoría unitaria que sería la síntesis de la gravitación y del electromagnetismo. Pero este trabajo titánico fue en vano. Estas dificultades lo condujeron a considerar con humildad su condición de físico: «Ustedes se imaginan que contemplo la obra de mi vida con una gran satisfacción. Pero visto de cerca, nada hay de eso. No hay un solo concepto del que esté convencido que vaya a durar e incluso me pregunto si estoy en el buen camino…».

Einstein y Elsa

Einstein y Elsa en 1931 antes que Hitler tomara el pode de Alemania

Ciudadano del mundo
Einstein permaneció toda su vida siendo el colegial hostil a toda forma de autoritarismo. En 1914 redactó un «Llamado a los europeos», invitando a los intelectuales a actuar en favor de la paz. Proveniente de una familia judía alemana, se sentía extraño al nacionalismo, incluso sentía una cierta simpatía hacia el movimiento sionista.

Eisntein en una conferenciaAceptó participar en una serie de viajes a Estados Unidos para recolectar los fondos necesarios para la fundación de una universidad en Jerusalén. Desde los primeros meses de la toma de poder de Hitler, Einstein se exilió en Estados Unidos y aceptó una cátedra en Princeton.

Convertido en ciudadano estadounidense en 1940, apoyó plenamente la idea de la guerra contra el nazismo. Ya en agosto de 1939 escribió al presidente Roosevelt para urgirlo a que implementase un programa de investigación atómica, expresando sus temores con respecto a que la Alemania hitleriana tuviese un cierto avance en esta materia.

Sin embargo, Einstein no participó en el proyecto Manhattan que dio a Estados Unidos un arma cuya eficacia trajo consigo a corto plazo la capitulación de Japón.

Horrorizado por el espectáculo de Hiroshima y de Nagasaki, Einstein militó desde entonces en las filas del pacifismo, asumiendo la presidencia del Comité de vigilancia de los investigadores sobre energía atómica, en mayo de 1946, y poniendo todo el peso de su nombre al servicio de la causa.

Preconizó la creación de un «gobierno mundial», que sería el único en tener el control del arma nuclear. Su último gesto político fue la redacción de un llamado a los científicos en favor de la abolición de la guerra, escrito en forma conjunta con el filósofo Bertrand Russel. Albert Einstein murió en Princeton el 18 de abril de 1955.

CRONOLOGÍA
1879
Nace el 14 de marzo en Ulm, Alemania
Pasa sus primeros años en Munich

1894
Después de repetidas quiebras del negocio familiar de
ingeniería eléctrica, la familia se muda a Milán, Italia

1895
Suspende un examen de ingreso en el Instituto Federal Suizo
de Tecnología, y estudia en Arrau, Suiza, pero falta a clase y prefiere leer sobre física o tocar su violín

1896
Renuncia a la nacionalidad alemana

1900
Deja el colegio, pero sus profesores no lo recomiendan para un curso universitario

1901
Toma nacionalidad suiza y publica un artículo sobre las fuerzas entre moléculas

1902
Se asegura un puesto como examinador en una oficina de patentes en Berna.

1903
Se casa con Mileva Maric, una serbia a la que conoció en una de sus clases de física, con la que tiene dos hijos, en 1904 y 1910, antes de separarse en 1914, y divorciarse en 1919

1905
Recibe su doctorado de la Universidad de Zurich

1905
Publica tres artículos sobre física teórica, el tercero de los cuales se titula “Sobre la Electrodinámica de los Cuerpos en Movimiento”, y que contiene la “teoría especial de la relatividad”

1909
Consigue su primer puesto académico en la Universidad de Zurich

1911
Se muda a una universidad de habla alemana en Praga, como profesor de física teórica.

1913
Es nombrado director del Instituto Kaiser Wilhelm para la Física

1916
Propone la teoría general de la relatividad, la cual se prueba tres años después

1919
Se casa con Elsa Lówenthal, una prima El informe de Eddington sobre la luz estelar curvándose alrededor del sol durante un eclipse solar confirma la teoría de Einstein

1922
Premio Nobel de Física

1933
Emigra a Princeton, Nueva jersey, EE. UU.

1939
Einstein se une a otros científicos y escribe al Presidente Franklin D. Roosevelt, indicando que la bomba atómica es posible, y que Alemania podría tener ya la tecnología

1952
Le ofrecen y declina la presidencia de Israel

1955
Muere mientras duerme en Princeton, EE. UU., el 18 de abril

CONFIRMACIÓN EXPERIMENTAL DE LA TEORÍA GENERAL DE LA RELATIVIDAD

EddingtonFascinado desde siempre por los números de muchas cifras, Eddington (imagen izq.) había intentado desde chico contabilizar todas las palabras de la Biblia; con su seguridad característica predijo el número de protones del Universo. La fórmula conocida como «Número de Eddington» es 136 x 2256.

En 1919 dirigió el equipo que probó la teoría general de la relatividad de Einstein. Aunque la lluvia y las nubes estorbaron la visión de Eddington de un eclipse solar en isla Príncipe, en la costa oeste de África, su equipo observó que los rayos de luz emitidos por las estrellas se desvían a medida que se acercan al Sol, tal y como había predicho Einstein. Unos meses después, las mediciones realizada: sus colaboradores en Brasil confirmaron estas observaciones, colega le dijo más tarde: «Debes s> una de las tres personas del mundo que comprende la teoría general d relatividad». Eddington declinó el cumplido. «No seas modesto», le respondió otro científico. «Al contrario, intento pensar quién es la tercera persona», replicó Eddington.

 

Fuente Consultadas:
Einstein y su Teoria de la relatividad Dr. Donald Goldsmith y Robert Libbon
Einstein Para Dummies Carlos I. Calle
Las Grandes Ideas Que Formaron Nuestro Mundo Peter Moore
El Universo Para Curiosos Nancy Hathawy
Biografías –  Hicieron Historia

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton La Fuerza de Gravedad
La Atracción Terrestre

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

El rol de las manzanas en la elaboración de la teoría de la gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco. Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos. Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado “natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra. La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos. La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna. ¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula. Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol. Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos. Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea. En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol. Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento. Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB). En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B. Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo). Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable. Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna) Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción. Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla. Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto. En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima. Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad “de escape”, muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y “desviarla” de alguna manera.

• Los animales sometidos a una “gravedad” elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que “cae” como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Hallar Coordenadas Geográficas de un lugar Latitud y Longitud Terrestre

Hallar Coordenadas Geográficas de un lugar Latitud y Longitud

Coordenadas geográficas: latitud y longitud
Para conocer latitud y longitud de un punto de la superficie de la Tierra, primero tenemos que conocer algunos conceptos que nos ayudarán a comprender mejor el tema.

Observa en la figura que Tierra está recorrida por líneas imaginarias que forman una red como la de los pescadores; las líneas que corren en sentido vertical se llaman meridianos y las otras, en sentido horizontal, son los paralelos.

hallar las coordendas geograficas

De todos ellos interesa nombrar al Ecuador, que es el paralelo mayor y divide la Tierra en dos partes iguales llamadas hemisferios Norte (boreal o septentrional) y Sur (austral o meridional); el meridiano de Greenwich, que la divide en dos partes iguales, pero en este caso determina los hemisferios Este (oriental) y Oeste (occidental).

Hacemos referencia especial al Ecuador y a Greenwich porque con ellos se determina la latitud y longitud respectivamente.

Entonces ahora podemos definir que la latitud de un punto en la superficie terrestre, es la distancia que existe entre ese punto y el Ecuador. Se mide en grados y varía de 0° a 90° Norte y de 0° a 90° Sur, siendo 0° el Ecuador y 90° los polos. La longitud, en cambio, es la distancia que existe entre el punto de la superficie terrestre y el meridiano de Greenwich. También se mide en grados, y varía entre 0° y 180° Este y 0° y 180° Oeste.

Todos los puntos de la superficie terrestre pueden localizarse por su latitud y longitud. Los que se encuentran sobre un mismo paralelo tienen la misma latitud, por eso para localizarlos exactamente se debe establecer también

El Sistema de Coordenadas Geográficas determina todas las posiciones de la superficie terrestre utilizando las dos coordenadas angulares de un sistema de coordenadas esféricas que está alineado con el eje de rotación de la Tierra. Este define dos ángulos medidos desde el centro de la Tierra: 

La latitud mide el ángulo entre cualquier punto y el ecuador. Las líneas de latitud se llaman paralelos y son círculos paralelos al ecuador en la superficie de la Tierra.

La longitud mide el ángulo a lo largo del ecuador desde cualquier punto de la Tierra. Se acepta que Greenwich en Londres es la longitud 0 en la mayoría de las sociedades modernas. Las líneas de longitud son círculos máximos que pasan por los polos y se llaman meridianos.

Combinando estos dos ángulos, se puede expresar la posición de cualquier punto de la superficie de la Tierra.

Por ejemplo, Baltimore, Maryland (en los Estados Unidos), tiene latitud 39,3 grados norte, y longitud 76,6 grados oeste. Así un vector dibujado desde el centro de la tierra al punto 39,3 grados norte del ecuador y 76,6 grados al oeste de Greenwich pasará por Baltimore.