Velocidad Gravitatoria

Historia del Descubrimiento de los Elementos Químicos

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal «bastardo» o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue «editada» por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro «elementos» (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas «aire deflogisticado» porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen «bombardeando» átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna (Haz clic)

La base de todos los compuestos—hay cientos y millares de compuestos en el mundo—es la molécula formada por la unión de átomos. En la mayoría de los compuestos inorgánicos los átomos que forman la molécula, y que por su unión producen todas las propiedades de los compuestos, son poco numerosos en general.

Así, la molécula de agua (H2O) consiste de dos átomos de hidrógeno y un átomo de oxígeno; la de ácido sulfúrico consiste de dos átomos de hidrógeno, uno de azufre y cuatro de oxígeno, y la de monóxido de carbono consiste de un átomo de carbono y uno de oxígeno. Por otra parte, las moléculas de substancias orgánicas y de los llamados «compuestus de carbono» se componen a menudo de una multitud de átomos.

Así, la molécula de albúmina de sangre o suero-albúmina se supone, con alguna duda, que contiene 450 átomos de carbono, 720 átomos de hidrógeno, 116 átomos de nitrógeno, 140 átomos de oxígeno y 76 átomos de azufre; mientras que la composición química de la nucleína es aún más complicada, pues es una substancia compleja albuminoidea que contiene también fósforo y hierro en combinación orgánica.

En muchos casos las moléculas en los compuestos de carbono están probablemente construidas, como si dijéramos, en pedazos, y su arquitectura está indicada por nombres como «carbinol trifenil-triamido-difeniltolil» y «acido carboxílico hexa-fenil-iso-propil-me-til-cetona».

La ciencia de la Química consiste principalmente en el conocimiento de las diferentes afinidades de los átomos y de las maneras de separar y reconstruir las moléculas; la ciencia de la Química sintética moderna ha logrado reconstituir algunos miles de compuestos interesantes que son completamente desconocidos en la Naturaleza.

Aun más interesantes y maravillosos que la afinidad química misma son los resultados producidos por la combinación. Los dos gases, oxígeno e hidrógeno, se juntan, y he aquí que tenemos el maravilloso líquido agua. El metal oro y el vapor corrosivo cloro se unen y tenemos un sólido de color castaño rojizo que es muy soluble en agua. Se juntan el carbono de un diamante y el oxígeno del aire, y he aquí que tenemos un gas sofocante.

Los gases oxígeno, nitrógeno e hidrógeno se unen con un poco de carbono, azufre y fósforo, para formar bajo la dirección del principio vital un germen del que se desarrolla el hombre. En la afinidad de elementos reside el misterio de la arquitectura de miles de compuestos: cada uno es un palacio químico.

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento:Año Descubridor
Carbono
CobreConocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
PlataConocidos a.C.
AzufreConocidos a.C.
EstañoConocidos a.C.
CincCConocidos a.C.
Arsénico Siglo XIIIAlberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo1669Brand
Cobalto1735Brandt
Platino1735Ulloa
Níquel1751Cronstedt
Hidrógeno1766Cavendish
Flúor1771Sebéele
Nitrógeno1772 Rutherford
Cloro1774Sebéele
Manganeso1774Gahn
Oxígeno1774Priestley, Sebéele
Molibdeno1782Hjeim
Telurio1782Von Reichenstein
Tungsteno1783d’Elhujar
Titanio1789Gregor
Uranio1789Klaproth
Circonio1789Klaproth
Estroncio1790Crawford
Itrio1794Gadolin
Cromo1797Vauquelin
Berilio1798Vauqueüiit
Niobio1801Hatchett
Tantalio1802Eckberg
Cerio1803Klaproth
Paladio1803Wollanston
Sodio1803WolloBstoa
Iridio1804Tenaant
Osmio1804Tetinani
Potasio1807Davy
Sodio1807Davy
Bario1808Davy
Boro1808Davy
Calcio1808Davy
Yodo1811Courtois
Cadmio1817Stromeyer
Litio1817Arfedson
Setenio1817Berzelius
Silicio1823Berzelius
Aluminio1825Oersted
Bromo1826Balard
Torio1822Berzelius
Magnesio1830Liebig, Bussy
Vanadio1830Sefstrom
Lantano1839Mosander
Erbio1843Mosondp»
Terbio1843Mosander
Ratenio1845Claus
Cesio1861Bunsen, Kirchoff
Subidlo1861Bunsen, Kirchoff
Talio1861Crookes
Indio1863Reich, Richter
Galio1875Boisbaudran
Iterbio1878Marignac
Hoinvio1879Cleve
Samaría1879Boisbaudran
Tulio1879Cleve
Neodimio1885Welsbach
Praseodimio1885Welsbach
Disprosio1886 Boisbaudran
Gadolinio1886Marignac
Germanio1886Winkler
Argón1894Rayleigh, Ramsay
Helio1895Ramsay
Criptón1898Ramsay, Travers
Neón1898Ramsay, Travers
Polonia1898P. y M. Curie
Radio1898P. y M. Curie, Be
Xenón1898Ramsay, Travers
Actinio1899Debierne
Radón1900Dorn
Europio1901Demarcay
Luteeio1907Welsbach, Urbain
Protactinio1917Hahn, Meitner
Hafnio1923Coster, Hevesy
Renio1925Noddack, Tacke
Tecnecio1937Perrier, Segre
Francio1939Perey
Astatino1940Corson y otros
Neptunio1940McMillan, Abelso»
Plutonio1940Seaborg y otros
Americio1944Seaborg y otros
Curio1944Seaborg y otros
Prometió1945 Glendenin, Marisd
Berkelio1949Thompson, Ghi Seaborg
Californio1950Thompson y otros
Einstenio1952Ghiorso y otros
Fermio1953Ghiorso y otros
Mendelevio1955Ghiorso y otros
Nobelio1958Ghiorso y otros
Lawrencio1961Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Feymann Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología
Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método cientí

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Curiosas Estadisticas del Mundo Datos Poblacion Hambre Pobreza Energía

CURIOSAS ESTADÍSTICAS DEL MUNDO: POBLACIÓN, HAMBRE, POBREZA, ENERGÍA

EL ETERNO PROBLEMA DE LA POBREZA MUNDIAL:

Actualmente, en el mundo en desarrollo 1.300 millones de personas viven con menos de un dólar diario y cerca de 3.000 millones, casi la mitad de la población mundial, con menos de dos dólares.

El hecho de que los países industrializados alcancen los porcentajes más bajos de pobres, no significa que en esos países no los tengan, pues el problema de la pobreza es mundial. Lo que ocurre es que en esos países la mayoría de sus habitantes no son pobres y gran parte tiene acceso a condiciones dignas de vida. En cambio, en los países en desarrollo, existe un predominio de pobres y una minoría de ricos.

En el mundo, la mayoría de los pobres todavía se localiza en las zonas rurales, pero esta situación está cambiando y probablemente en el siglo XXI la mayor parte viva en ciudades. Este proceso será resultado de la migración a las zonas urbanas, del menor acceso a recursos productivos, del desarrollo insuficiente de la vivienda urbana y la infraestructura física, etc.

EN BUSCA DE SOLUCIONES:

Tan grave es este problema que ha crecido la conciencia de la necesidad de cooperación internacional para intentar mejorar esta situación. Una de las iniciativas que emprendió la Organización de las Naciones Unidas es el Programa de las naciones Unidas para el Desarrollo (PNUD).

Este programa aconseja que se preocupen por la calidad del crecimiento económico y por las siguientes cuestiones:

Crecimiento sin empleo: la economía general crece pero sin que aumenten las oportunidades de empleo. En los países en desarrollo el crecimiento sin empleo también redunda en muchas horas de trabajo e ingresos muy bajos para centenares de millones de personas.

Crecimiento sin equidad: los frutos del crecimiento económico benefician especialmente a los ricos, dejando a millones de personas sumergidas en una pobreza cada vez más profunda. Entre 1970 y 1985, el valor de la producción mundial aumentó un 40% pero el número de pobres creció el 17%.

Crecimiento sin voz de las comunidades: la represión política y los controles autoritarios han impedido las demandas de mayor participación social y económica en los países donde el crecimiento de la economía no ha sido acompañado por un fortalecimiento de la democracia o de las posibilidades de expresarse de la gente.
El PNUD considera que existen factores a tomar en cuenta para que el desarrollo humano acompañe al crecimiento:

Equidad: cuanto mayor sea la igualdad con que se distribuye la producción mundial y las oportunidades económicas, tanto más posible será que se traduzcan en un mejoramiento del bienestar humano.

Oportunidades de empleo: el crecimiento económico se concreta en la vida de la gente cuando se ofrece trabajo productivo y bien remunerado. Una manera importante de lograrlo consiste en procurar crecimiento por medio de actividades económicas que requieren abundante mano de obra.

Acceso a bienes de producción: el Estado debería actuar para lograr que las personas más pobres tengan satisfechas sus necesidades básicas.

Gasto social: los gobiernos y las comunidades pueden influir en gran medida en el desarrollo humano, encauzando una parte importante del ingreso público hacia el gasto social más prioritario: salud, educación, justicia, atención de los ancianos.

Igualdad de género: brindar a la mujer mejores oportunidades y mejor acceso a la enseñanza, las guarderías infantiles, el crédito y el empleo.

Esto se complementa con políticas de población, buen gobierno y una sociedad civil activa.

Un esfuerzo decidido para aumentar la capacidad humana -mediante mejor enseñanza, mejor salud y mejor nutrición- puede ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países de bajos ingresos y escaso desarrollo humano.

https://historiaybiografias.com/linea_divisoria5.jpg

datos del mundo

África es el continente en el que la población aumenta más rápidamente, con una tasa de crecimiento del 22,6%. En del Norte es donde la población aumenta más lentamente: 5,4%. En cuanto a Europa, es el único continentela población disminuye: -1,6%.
En 2050, el reparto de la población habrá cambiado. Los humanos serán más numerosos en los países que actualmente están en desarrollo (continente africano, India y China en particular). Si la pobreza no ha disminuido en esas regiones del mundo, en África sobre todo, la vida será todavía más difícil que hoy.

Si el mundo fuera una ciudad de 100 niños, 28 tendrían menos de 5 años, 58 tendrían entre 5 y 14 años y 14 entre 15 y 17 años. De estos niños, 53 vendrían de Asia, 17 del África subsahariana, 9 de América Latina y el Caribe, 7 de Oriente Medio y norte de África, 5 de Europa central y oriental, es decir, un total de 91 niños vendrían de países en desarrollo, frente a los 9 que vendrían de países ricos. La ciudad contaría con 51 niñas y 49 niños.

De estos 100 niños, 2 niñas y 1 niño no irían a la escuela; 10 niños de edades entre 5 y 14 año; trabajarían, algunos en condiciones que ponen su vida en peligro; 17 niñas estarían casadas, algunas serían incluso madres de algunos otros niños de la ciudad. Las familias de dos niños provenientes de países ricos poseerían la mitad de la ciudad y sus riquezas.

https://historiaybiografias.com/linea_divisoria5.jpg

estadisticas del mundo transporte

Los carburantes a base de petróleo son contaminantes y las reservas de petróleo se agotan. Ahora bien, este «oro negro» representa el 98% de la energía utilizada por los transportes. Así pues, ¿cómo vamos a conducir, volar o viajar mañana?

Los carburantes alternativos existen: biocarburantes, gas, electricidad. Pero el cultivo de los biocarburantes compite con la producción alimentaría y por tanto los precios aumentan. El gas, como el petróleo ve agotarse sus reservas y las baterías de los vehículos eléctricos son contaminantes.

Existen nuevos carburantes pendientes de explotación: hidrógeno, sol, aire comprimido,pero todavía no está todo dicho

A la espera del carburante milagroso, podemos utilizar el vehículo al mínimo, desplazarnos a píe, en bicicleta o todos juntos, en transportes públicos.

https://historiaybiografias.com/linea_divisoria5.jpg

vida rural estadisticas del mundo

La población mundial vive cada vez menos en el campo. El éxodo hacia las ciudades comenzó en Europa, en el siglo XIX, durante la revolución industrial. Desde mediados del siglo XX, este Fenómeno se produce en los países en desarrollo.

En los países ricos, el éxodo rural se frenó hace medio siglo. Hoy en día, el movimiento es a la inversa. Los ciudadanos se van a vivir al campo, por el aire puro, los paisajes… y los precios más baratos de las viviendas. Muchos de estos nuevos campesinos continúan de todas formas trabajando en la ciudad.
En los países pobres, los habitantes del campo van hacia la ciudad para buscar una vida mejor. Pero a menudo se hunden en la miseria aún mayor.

https://historiaybiografias.com/linea_divisoria5.jpg

hambre mundial

Entre 1980 y 1997, el habre disminutó en el mundo. El número de personas víctimas de la malnutrición pasó de 954 a 791 millones. En el siglo XXI el hambre ha recuperado su progresión. Una de las razones de este aumento es la subida de los precios de los productos alimentarios.

Cultivar la tierra no protege de la malnutrición. De hecho, el 70% de las personas que padecen hambre son los campesinos de los países pobres. Cultivan pequeñas parcelas pero a menudo carecen de agua y de herramientas modernas. Además, su producción sufre la competencia de los producios provenientes de los países ricos que se venden más baratos en los mercados locales.

En África subsahariana una persona de cada tres padece hambre. Pero es el continente donde los progresos son más destacables. Así pues, en 2008, la situación mejoró en Gana, Congo, Nigeria, Mozambique y Malawi.

https://historiaybiografias.com/linea_divisoria5.jpgestadisticas del mundo

88.000 millones de euros es el importe de la ayuda del conjunto de los países ricos a los países pobers en 2008.

Cada año, los estados ricos hacen donaciones y préstamos a los estados pobres. En 2008, la cantidad de esta «ayuda pública al desarrollo» correspondió al 0,3% del producto bruto interno del conjunto de países ricos. Es como si 22 niños que poseyeran 100 euros se pusieran frente a 150 niños que no tuvieran casi nada, y decidieran entonces, donar a los otros niños 30 céntimos para repartir… de los cuales una parte tendrían que devolverla más tarde.

ExxonMobil es la empresa más grande deí mundo. En 2008 vendió bienes y servicios por un valor equivalente al gasto del Estado francés durante el mismo período (345.000 millones de euros). El colosal volumen de negocios de ExxonMobílha servido en gran parte para cubrir los considerables gastos necesarios para el funcionamiento de una empresa de ese calibre.

Pero, a pesar de todo, la multinacional logró, gracias a la subida histórica de los precios del petróleo en 2008, un beneficio récord de 33.500 millones de euros.

https://historiaybiografias.com/linea_divisoria5.jpgenergia mundial

La idea de que la humanidad tendrá que vivir pronto sin petróleo avanza. Como prueba, países como Estados Unidos y China, más acostumbrados a comprar petróleo, forman parte ahora de los productore: más importantes de energías renovables. Estados Unidos está a la cabeza de la energía eólica, y China es campeona en todas las categorías (solar, biomasa, eólica…).

El apagón que paralizó en 2003 a 50 millones de americanos canadienses demostró la importancia de la energía en las sociedades modernas. Desde el mediodía del 14 de agosto de 2003, los habitantes de Nueva York, Toronto o Detroit, vieron cómo se detuvieron los metros y los tranvías, cómo se apagaron los semáforos, y se amontonaron los vehículos. Los comercios, restaurantes, estaciones de servicio, tuvieron que cerrar.

Era imposible telefonear, subi a un ascensor (o salir de él), sacar dinero. Los refrigeradores y los congeladores dejaron de enfriar. Las fábricas dejaron de producir,! los aviones de volar, algunos medios de comunicación cesaron de emitir… sólo por unas horas, afortunadamente.

https://historiaybiografias.com/linea_divisoria5.jpg

pobreza estadisticas del mundo

La pobreza y las desigualdades han aumentado en los países pobres miembros de la Organización y Desarrollo Económico, en especial en los Estados Unidos. El 10% de los estadounidenses más ricos ganaron 255 dólares diarios y el 10% mas pobre 16 dólares al día 2 .

Actualmente, hay en el mundo 5.200 millones de seres humanos que viven con menos de 8 dólares al día. Entre ellos, 2.500 millones disponen de menos de 2 dólares cada día, A pesar déla voluntad contra la pobreza, ésta no disminuye en el mundo.

En 2006, se concedió el premio Nobel de la paz a Mohamed Yunus economista de Bangladesh in leí mícrocrédito. Desde 1976, presta pequeñas cantidades de dinero a los más pobres para ayudarlos a crear su acíividad profesional. Sin embargo conseguir préstamo no siempre permite salir de la pobreza. Así, algunos prestatarios se ven obligados a utilizar el dinero de su crédito para alimentar a su familia y no pueden devolverlo.

https://historiaybiografias.com/linea_divisoria5.jpg

alfabetizacion estadisticas del mundo

El analfabetismo ha disminuido en los últimos 20 años. Las personas que no saben leer ni escribir han pasado de 871 a 774 millones. Eso significa que hoy en día, cerca de 100 millones de personas más (una vez y media la población francesa) pueden leer los carteles, las papeletas de voto, los prospectos de los medicamentos, , sus contratos de trabajo, las notas que les dirigen, los cuadernos de sus hijos…

Tres cuartos de los 774 millone de personas analfabetas del mundo viven en sólo 15 países. Se trata de países en desarrollo, entre tos que es.tán los más poblados, como China, India, Bangladesh, Brasil o Nigeria.

Los países ricos tienl también adultos que no dominan la lectura ni la escritura. Es el caso del 12% de adultos de 18 a 65 años que viven en Francia (ent los que están 3 franceses por ( extranjero). Las personas may son las más afectadas.

https://historiaybiografias.com/linea_divisoria5.jpg

educacion estadisticas del mundo

Una parte de los estudiante extranjeros que vienen de países en desarrollo no regresan a su origen. Así, un tercio de los estudiantes licenciados originarios del África subsahariana trabaja en el extranjero. Sin embargo en los países emergentes, como India o China, cada vez son mí los estudiantes que regresan. Allí encuentran trabajo en los centros de investigación y en las industrias modernas.

Casi 3 millones de jóvenes estudian en el extranjero. La mitad de ellos residen en 4 países: Estados Unidos (20%), Reino Unido (11%), Alemania (9%) y Francia (8%). Los estudiantes africanos son los que más se trasladan: 1 de cada 16 va en busca de una formación de calidad que no encuentra en su país.

Los países emergentes se han vuelto atractivos paraf los estudiantes extranjeros, que vienen de otros países en desarrollo, pero también de los países ricos. Allí, las grandes escuelas de comercié por ejemplo, ofrecen formado de calidad, con tasas de inscripción más baratas.

https://historiaybiografias.com/linea_divisoria5.jpg

los jovenes en el mundo

Si el mundo fuera una ciudad de 100 niños, 28 tendrían menos de 5 años, 58 tendrían entre 5 y 14 años y 14 entre 15 y 17 años. De estos niños, 53 vendrían de Asia, 17 del África subsahariana, 9 de América Latina y el Caribe, 7 de Oriente Medio y norte de África, 5 de Europa central y oriental, es decir, un total de 91 niños vendrían de países en desarrollo, frente a los 9 que vendrían de países ricos. La ciudad contaría con 51 niñas y 49 niños.

De estos 100 niños, 2 niñas y 1 niño no irían a la escuela; 10 niños de edades entre 5 y 14 año; trabajarían, algunos en condiciones que ponen su vida en peligro; 17 niñas estarían casadas, algunas serían incluso madres de algunos otros niños de la ciudad. Las familias de dos niños provenientes de países ricos poseerían la mitad de la ciudad y sus riquezas.

https://historiaybiografias.com/linea_divisoria5.jpg

https://historiaybiografias.com/linea_divisoria5.jpg

datos del mundo

https://historiaybiografias.com/linea_divisoria5.jpg

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton «estaba mal» y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es «incorrecta», da la impresión de que entonces la teoría de Einstein es la «correcta».  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein «está mal» en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Resumen Explicación Buscando el Eter

Resumen del Experimento de Michelson Morley
Explicación de la Búsqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania.

Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.

Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia).

Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra.

Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas («corpúsculos») y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una «cosa» no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz.

A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro.

Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el «adelante»), mientras que los que más tardaran en llegar indicarían el «arriba».

Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas.

Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado «Sobre la electrodinámica de los cuerpos en movimiento» en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por «inerte» se quiere decir «a velocidad constante»). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es «relativo» al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro «Nueva Guía para la Ciencia» de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean «digeridos» por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Usos de la Energia Nuclear Aplicaciones y Beneficios

Usos de la Energía Nuclear Ejemplos de Aplicaciones Practicas

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energía empleada en el mundo.

La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables.

La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.

Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas.

Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.

———— 0000 ———–

Usos y Aplicaciones Mas Comunes En:

1-Electricidad
2-Medicina
3-Agricultura y Alimentación
4-Hidrología
5-Minería
6-Industrias
7-Arte
8-Medio Ambiente
9-Exploración Espacial
10-Cosmología

https://historiaybiografias.com/linea_divisoria1.jpg

USOS DE LA ENERGIA NUCLEAR

1-USO EN ELECTRICIDAD

uso energia nuclear

En cada vez mas países, como en España, más del 20% de la electricidad consumida anualmente se produce en las centrales nucleares

2-USO EN MEDICINA

uso en medicina energia nuclear

Las técnicas de diagnóstico y tratamiento de La medicina nuclear son fiables y precisas: radiofármacos, gammagrafia. radioterapia, esterilización…

3-USO HIDROLOGÍA

uso nuclear en hidrologia

Los isótopos se utilizan para seguir los movimientos del ciclo del agua e investigar las fuentes subterráneas y su posible contaminación.

4-AGRICULTURA Y ALIMENTACIÓN

uso en agricultura de la energia nuclear

Control de plagas de insectos, mejora de las variedades de cultivo, conservación de alimentos.

5-USO EN MINERÍA

uso en mineria de la enrgia nuclear

A través de sondas nucleares se puede determinar la composición de las capas de la corteza terrestre.

6-EN INDUSTRIA

Los isótopos y radiaciones se usan para el desarrollo y mejora de los procesos industriales, el control de calidad y la automatización.

7-EN ARTE

la energia nuclear en el arte

Las técnicas nucleares permiten comprobar la autenticidad y antigüedad de las obras de arte, asi como llevar a cabo su restauración

8- EN MEDIO AMBIENTE

uso nuclear en el medio ambiente

Técnicas como el Análisis por Activación Neutrónica permiten la detección y el análisis de diversos contaminantes

9-EN EXPLORACIÓN ESPACIAL

energia nuclear en la exploracion espacial

Las pilas nucleares se utilizan para alimentar la instrumentación de satélites y de sondas espaciales

 10-EN COSMOLOGÍA

El estudio de la radiactividad de los meteoritos permite confirmar la antigüedad del universo.

Uso en las Centrales Nucleares

La generación de electricidad es el empleo más importante de la energía liberada en una fisión nuclear. Para ello es necesario controlar la reacción de fisión en cadena; hace falta un sistema que impida que el número de fisiones por unidad de tiempo sobrepase ciertos límites.

Esto se logra mediante el reactor nuclear Un reactor nuclear consiste básicamente en un recipiente en cuyo interior se encuentra el combustible nuclear (uranio o plutonio).

Dicho combustible se suele introducir en forma de pastillas encapsuladas en una serie de vainas metálicas ,rodeadas por un material moderador, que forman el interior del reactor. Para el control de la reacción existen unas barras deslizantes, compuestas de un material capaz de absorber neutrones (boro o grafito).

Según se introduzcan más o menos barras de control en el interior del reactor, el número de neutrones absorbidos será mayor o menor, de este modo se puede controlar el número de fisiones que ocurren por unidad de tiempo.

Si las barras se introducen totalmente, la reacción de fisión se detiene. Todo el conjunto del reactor se halla encerrado por el blindaje biológico, que es una envoltura de metal y hormigón cuya finalidad es impedir el paso de la radiación o gases contaminantes o radiactivos al medio ambiente.

La energía liberada por la fisión del combustible se manifiesta en forma de calor, que se extrae mediante un refrigerante que suele ser agua y que, a causa del calor recibido, se convierte en vapor a alta presión.

El vapor así producido es utilizado para mover turbinas que están acopladas a los generadores eléctricos, posteriormente es enfriado y forzado a circular nuevamente dentro del reactor mediante bombas.

Cuando el combustible empleado es el uranio, puede presentarse en dos variedades: uranio natural o uranio enriquecido. El uranio natural contiene una pequeña proporción de átomos de uranio-235, que es el único que puede fisionar en el reactor.

Por ello es necesario mejorar sustancialmente la eficiencia del reactor, sobre todo en lo que hace a la absorción indeseada de neutrones, esto encarece la estructura del reactor pero generalmente se compensa con el bajo costo del uranio natural. Por el contrario, el uranio enriquecido presenta una proporción mucho más alta de átomos de uranio-235, que se logra mediante un costoso proceso de refinamiento químico.

El uranio-235 va desapareciendo del combustible debido a las fisiones; después de cierto tiempo de funcionamiento del reactor es necesario recambiar el combustible. Esta operación se logra sacando algunas de las vainas que contienen el combustible y reemplazándolas por otras con combustible nuevo.

La generación de electricidad mediante reactores de fisión nuclear presenta grandes ventajas pero también serios inconvenientes.

Entre las ventajas, las más importantes son que no producen contaminación directa de la atmósfera dado que no hay emisión de gases de combustión y que no dependen del suministro de combustibles fósiles que eventualmente han de agotarse.

Los inconvenientes tienen que ver con el tipo de residuos que produce su operación, que consisten en material radiactivo (cuya peligrosidad persiste durante muchos miles de años), por esta razón es muy difícil su tratamiento.

Además, hay que destacar las consecuencias extremadamente graves que tienen para las personas y el medio ambiente los eventuales accidentes que pueden ocurrir, y han ocurrido, en las centrales nucleares.

Estas características compiten firmemente entre sí y hacen que el empleo de las centrales nucleares tenga tantos fervientes defensores como opositores.

usina nuclear esquema Esquema reactor nuclear

La fusión nuclear se presenta como una fuente energética alternativa con muchos menos inconvenientes que la fisión y tantas o más ventajas. Actualmente, la construcción de una central nuclear en base a la fusión se presenta como un serio desafío tecnológico.

La fusión se ha logrado en el laboratorio en condiciones muy especiales que no pueden ser llevadas a la escala necesaria para construir una central nuclear que sea económicamente rentable, es decir, que entregue más energía que la que consume y lo haga a un costo que compita con otros mecanismos de generación.

El problema fundamental radica en que la única forma conocida de lograr fusión es comprimir un gas altamente recalentado, a temperaturas superiores a los millones de grados. Este proceso se logra mediante dispositivos llamados botellas magnéticas.

Recientemente, a principios de 1989, dos científicos reportaron haber descubierto un mecanismo mediante el cual se podía lograr la fusión nuclear a temperatura ambiente.

El anuncio revolucionó a la comunidad científica internacional por las espectaculares consecuencias que esto tendría y se denominó fusión fría al fenómeno. Lamentablemente, pese a que innumerables grupos de investigadores de todo el mundo trataron de repetir el proceso, ninguno logró resultados positivos y actualmente se sospecha que los experimentos originales estuvieran mal hechos.

Ver: Funcionamiento de una Central Nuclear

https://historiaybiografias.com/linea_divisoria5.jpg

La Datación Arqueológica

La datación de una muestra arqueológica es el procedimiento por el cual se determina su antigüedad.

El más conocido es el que emplea el isótopo carbono-14 y que permite determinar la edad de restos fósiles o piezas fabricadas por el hombre de hasta 50.000 años de antigüedad.

El carbono está presente en la atmósfera terrestre, formando dióxido de carbono, en tres variedades isotópicas: el carbono-12, -13 y -14. El carbono-12 y -13 son estables, sin embargo el segundo es muy raro: tan sólo 1 de cada 100 átomos de carbono es carbono-13.

En cambio, el carbono-14 es radiactivo con un período de semidesintegración de 5700 años.

Al desintegrarse, el carbono-14 se transforma en nitrógeno-14 y emite radiación Beta y debería desaparecer paulatinamente de la atmósfera. Sin embargo, si bien se lo encuentra en proporción escasísima, hay evidencia de que ésta ha permanecido casi inalterada por muchas decenas de miles de años.

Esto es debido a que también existe un mecanismo por el cual se forma carbono-14 a partir del nitrógeno-14.

Este hecho tiene lugar en las capas más altas de la atmósfera y consiste en la transmutación del nitrógeno-14 en carbono-14 producida por la radiación cósmica.

El carbono-14 así formado se combina con el oxígeno para dar dióxido de carbono y es transportado a las capas más bajas de la atmósfera por las corrientes de aire.

Estos dos mecanismos, el de desintegración y el de creación, han llegado a un equilibrio: la cantidad de carbono-14 que se desintegra durante cierto tiempo es igual a la que se crea en ese tiempo. De tal modo la abundancia de carbono-14 en la atmósfera permanece constante.

Como bien sabes, durante el proceso de fotosíntesis las plantas toman dióxido de carbono de la atmósfera y asimilan el carbono a su organismo. Por este motivo, una parte del carbono que hay en las plantas será carbono-14. Cuando la planta muere, el carbono-14 de su organismo comienza a desaparecer lenta pero inevitablemente, debido a su desintegración.

El resultado de este complicado mecanismo es: ¡un fósil vegetal tiene incorporado su propio reloj! Para saber el tiempo que ha trascurrido desde su muerte bastará con medir la abundancia de carbono-14 que hay en él y que será tanto menor cuanto más tiempo haya transcurrido.

Los físicos han podido establecer cuál es la ley que sigue esta disminución y confeccionaron tablas de la abundancia en función del tiempo. Por lo tanto, una vez conocida esa abundancia bastará con comparar el valor medido con esa tabla para saber la edad del fósil.

Como ya te imaginarás, este fenómeno que afecta el carbono que hay en las plantas también afecta a los animales pues, en algún paso de la cadena alimentada, ellos se nutren de las plantas. También afecta la composición del suelo, pues en la mayor parte de los casos las plantas al morir se integran a él. También a los utensilios y objetos creados por los hombres primitivos, como las vasijas de barro. Por estas razones, este método de datación sirve para analizar una variedad muy grande de muestras. Debemos decir, sin embargo, que falla cuando se trata de determinar edades de más de 50.000 años, en cuyo caso se emplean otros métodos.

https://historiaybiografias.com/linea_divisoria5.jpg

Utilización en Medicina y otras áreas

Aprovechando la acción destructiva de las radiaciones sobre la materia, los radioisótopos se emplean en medicina en el tratamiento contra el cáncer, radiando con cobalto-60 los tumores que se quieren eliminar.

También se emplean en la esterilización de material médico y quirúrgico.Los radioisótopos pueden introducirse en un organismo vivo o en cualquier otro material y puede seguirse su trayectoria a través de él. Por ello se emplean como trazadores o marcadores en investigaciones médicas, químicas, industriales, etc.

Por ejemplo, el isótopo yodo -131 se utiliza en medicina para diagnosticar enfermedades de la tiroides. En química y biología, los isótopos radiactivos se utilizan para realizar estudios sobre velocidad y mecanismo de reacciones. En la industria, se emplean para localizar fugas en el transporte de fluidos, por ejemplo, en un oleoducto.

https://historiaybiografias.com/linea_divisoria5.jpg

 Desventajas del uso de radioisótopos

En contrapartida a su utilidad, el manejo de materiales radiactivos plantea problemas de difícil resolución. Entre ellos se destacan la eliminación de los residuos radiactivos que se producen y el control de la seguridad de las personas encargadas de su manipulación y de las comunidades próximas a las instalaciones nucleares.

De hecho, un accidente nuclear de la magnitud del ocurrido en la central de Chernobil puede haber afectado, según algunas estimaciones, la salud de más de medio millón de personas, sin contar las enormes pérdidas materiales que ha originado. (VER DESCRIPCIÓN DEL PROCESO DE LA FISIÓN DEL URANIO)

https://historiaybiografias.com/linea_divisoria5.jpg

Ampliación: Los Beneficios de la Energía Nuclear

La energía nuclear es cuestionada debido a los daños que puede causar al ambiente y a los seres vivos si no existe un control estricto de los reactores nucleares y de los desechos radiactivos, y por su utilización en la fabricación de armamento altamente destructivo.

Sin embargo, la energía nuclear puede tener múltiples usos beneficiosos para la humanidad, no solo en la generación de energía eléctrica —una fuente de energía menos contaminante que el petróleo o el carbón—. sino también por su aplicación en otras áreas de la actividad científica y productiva. Entre ellas:

1 | Agricultura y alimentación

a) Control de plagas. En la llamada técnica de los insectos estériles se suministran altas emisiones de radiación para esterilizar insectos machos en laboratorio y que no dejen descendencia al aparearse. De este modo es posible controlar su población sin utilizar productos químicos nocivos.

b) Mutaciones. La irradiación aplicada a semillas permite cambiar la información genética de ciertas variedades de vegetales para obtener nuevas variedades con características particulares.

c) Conservación de alimentos. Las radiaciones son utilizadas para eliminar microorganismos patógenos presentes en los alimentos y aumentar, de este modo, su período de conservación.

2 | Hidrología

Mediante técnicas nucleares, es posible desarrollar estudios sobre los recursos hídricos. Por ejemplo, caracterizar y medir corrientes de aguas, fugas en embalses, identificar el origen de las aguas subterráneas, etcétera.

3 | Medicina

Se utilizan radiaciones y radioisótopos como agentes terapéuticos y de diagnóstico. En el diagnóstico, se utilizan fármacos radiactivos para estudios de tiroides, hígado, riñon, para mediciones de hormonas, enzimas, etcétera. En terapia médica se pueden combatir ciertos tipos de cáncer con resultados exitosos, especialmente cuando se detectan tempranamente.

4 | Medio ambiente

Se utilizan técnicas nucleares para la detección y análisis de diversos contaminantes del medio ambiente.

5 | Industria e investigación

a) Trazadores. Se elaboran sustancias radiactivas que son introducidas en un determinado proceso y, luego, se detecta la trayectoria de la sustancia por su emisión radiactiva. En el ámbito de la Biología, la introducción de compuestos radiactivos marcados ha permitido observar las actividades biológicas hasta en sus más mínimos detalles.

b) Imágenes. Es posible obtener imágenes de piezas utilizando radiografías que reciben el nombre de gammagrafía y neutrografía. Por ejemplo, se puede comprobar la calidad en piezas cerámicas, detectar la humedad en materiales de construcción, etcétera.

a) Datación. Se emplean técnicas isotópicas para determinar la edad en formaciones geológicas y arqueológicas. Por ejemplo, se utiliza la técnica de carbono-14, para determinar la edad de fósiles.

Fuente Consultada: Físico Químico de Pilar Escudero y Otros

https://historiaybiografias.com/linea_divisoria5.jpg

CRONOLOGÍA

1938 — Otto Hahn, Lise Meitner y Fritz Strassman descubren en Alemania la fisión nuclear del uranio.

1942 — Primera reacción nuclear en cadena en un laboratorio de Chicago dirigido por Enrico Fermi.

1945 — El bombardero Enola Gay lanza la primera bomba atómica de fisión nuclear sobre la ciudad japonesa de Hiroshima. Poco después, los Estados Unidos lanzan la segunda sobre Nagasaki.

1949 — La Unión Soviética realiza su primera prueba nuclear en Kazajstán.

1952 — Estados Unidos hace explotar su primera bomba de fusión nuclear en el atolón de Bikini, en el Océano Pacífico. Los británicos realizan su primera prueba en las islas australianas de Monte Bello.

1956 — Gran Bretaña pone en marcha su primera central nuclear comercial, en Sellafield, con una potencia de 50 Mw. Francia pone en marcha su primera central nuclear experimental, en Marcoule, en el departamento de Chusclan, en el Gard, con una potencia de 7 Mw.

1959 — Francia pone en marcha dos nuevos reactores nucleares en Chusclan, de 40 Mw cada una.

1960 — Francia realiza su primer ensayo nuclear en el desierto del Sahara.

1968 — España construye su primera central nuclear de las nueve que posee actualmente, se llama José Cabrera y se encuentra en el término municipal de Almonacid de Zorita, en Guadalajara, junto al río Tajo, con una potencia de 160 Mw.

boton

Interesante Link Para Investigar: Foro Nuclear

Historia de la Energia Nuclear

Efectos De Una Explosión Nuclear

Funcionamiento De Una Central Nuclear

Aplicaciones Energia Atomica despues de la Guerra Mundial Historia

Historia Evolución Tecnológica Post Guerra Mundial: La Energía Atómica

Aunque fue la culminación de varios años de intensas investigaciones, la explosión de las primeras bombas atómicas constituyó para el mundo entero un acontecimiento totalmente inesperado. De inmediato se hizo evidente, sin embargo, que era posible seguir dos líneas de desarrollo.

Una de ellas era puramente militar: cada una de las grandes potencias tenía que demostrar su capacidad de construir independientemente la nueva arma, si quería mantener su credibilidad militar. En aquel momento, la única forma de defensa parecía ser la capacidad demostrable de recurrir a represalias del mismo tipo.

La segunda línea de desarrollo era la posibilidad de utilizar esta fuente totalmente nueva de energía no de manera descontrolada, como en la bomba, sino mediante el desarrollo de tecnologías completamente innovadoras que la controlaran y la pusieran al servicio de la industria.

Aplicaciones Energia Atomica

De hecho, los dos aspectos estaban estrechamente interrelacionados, como lo demuestran los acontecimientos en el Reino Unido. En ese país, hasta 1951, el programa de energía atómica había estado orientado en gran medida a los aspectos militares, que imponían la necesidad de producir plutonio.

A partir del mencionado año, las dos líneas comenzaron a acercarse dado que las pilas atómicas diseñadas para producir plutonio también se podían utilizar para generar energía eléctrica. Una de ellas fue la denominada Pippa, que producía plutonio y generaba electricidad como subproducto. Esta pila fue la base de energía de Calder Hall, la primera central nuclear importante del mundo, que se inauguró en 1956.

Sorprendentemente, teniendo en cuenta la enorme cantidad de dinero y trabajo que habían dedicado al proyecto Manhattan, los norteamericanos demostraron escaso interés por el desarrollo de la energía atómica como fuente controlada de electricidad en los primeros años de la posguerra. Sólo la marina norteamericana se dedicó a estudiar seriamente el tema, al reconocer su enorme potencial para mantener a las naves indefinidamente en alta mar, sin necesidad de repostar.

En 1955 se construyó el submarino Nautilus, primero de una larga serie de naves subacuáticas propulsadas por energía atómica. En 1959, los soviéticos produjeron el rompehielos nuclear Lenin. Sin embargo, tan sólo en 1957 se inauguró la primera central nuclear de Estados Unidos, en Shippingport, Pennsylvania.

También en este caso, los soviéticos se habían colocado a la cabeza, con la entrada en funcionamiento en 1954, en Obninsk (cerca de Moscú), de una pequeña central nuclear que utilizaba uranio como combustible y grafito como moderador. El calor generado en el núcleo del reactor pasaba en primer lugar a un sistema de circuito cerrado de agua a alta presión y luego era transferido a un sistema independiente de agua, que generaba el vapor necesario para poner en marcha las turbinas.

Un sistema en cierto modo similar de refrigeración por agua fue desarrollado por Estados Unidos para el reactor de Shippingport y por Canadá para los reactores Candu, construidos en los años 50.

La refrigeración por agua tiene la ventaja de ser sencilla y barata, pero tiene también sus inconvenientes. En caso de emergencia (por ejemplo, demasiado calor generado en el núcleo), el agua se convertiría rápidamente en vapor y dejaría de cumplir con su vital función de refrigeración. Por este motivo, Francia y el Reino Unido se inclinaron por los reactores refrigerados con gas, ya que éste no cambia de estado por mucho que se caliente. El primer reactor del Reino Unido, el de Calder Hall, tenía un sistema de refrigeración a gas.

Mientras tanto, en los años 50, se estaba desarrollando un nuevo tipo de reactor que utilizaba como combustible una combinación de uranio-238 y plutonio-239. Los neutrones generados por el plutonio interactúan con el uranio y producen más plutonio; de esta forma se consigue varias veces más energía que en los reactores convencionales con una misma cantidad de uranio.

El primer reactor de este tipo fue inaugurado en la localidad escocesa de Dounreay en 1959, y la central nuclear Phénix, de características similares, entró en funcionamiento poco después en Marcoule, Francia. Al finalizar la década de los años 40, se había dedicado considerable atención a la posibilidad de utilizar otro tipo distinto de refrigerante para los reactores. Se trataba del metal sodio, que funde a 98 °C, ligeramente por debajo del punto de ebullición del agua y muy por debajo de la temperatura normal de operación de los reactores.

Esquema de un Reactor Nuclear

Desde el punto de vista termodinámico, viene a constituir un medio interesante de transferencia del calor, pero presenta varios inconvenientes. Es un elemento muy reactivo químicamente, capaz de provocar corrosión en la mayoría de los materiales con los que entra en contacto. Más concretamente, reacciona de forma explosiva con el agua.

Precisamente esta propiedad lo descartó como refrigerante para los reactores submarinos (tema que interesaba a la marina norteamericana), aunque los Laboratorios Argonne, cerca de Chicago, y General Electric, en Schenectady, habían realizado varios estudios.

La Conferencia atómica de 1955
Al final de la Segunda Guerra Mundial, Estados Unidos era la única nación que poseía la bomba atómica. Durante casi una década trató de mantener d «secreto» y, por medio de unas leyes draconianas y una reserva sin precedentes en tiempos de paz, intentó evitar que se propagaran los conocimientos de la tecnología nuclear. Sin embargo, en 1949 la Unión Soviética hizo estallar su primera bomba atómica.

Cuando Eisenhower ocupó el cargo de presidente de los Estados Unidos en 1952, al comprender que era inevitable que se propagaran los conocimientos nucleares, decidió adoptar dos iniciativas con el fin de internacionalizar la energía atómica y garantizar que la difusión de esta tecnología fuera aplicada con fines pacíficos y no militares.

En su famosa alocución titulada «Átomos para la paz», pronunciada ante la Asamblea General de las Naciones Unidas en 1953, propuso la fundación de la Agencia Internacional de Energía Atómica con el propósito de controlar la aplicación pacífica de dicha tecnología. La segunda iniciativa de los Estados Unidos llevó a la Conferencia Internacional sobre Usos Pacíficos de la Energía Atómica, celebrada en el Palais des Nations, en Ginebra, entre el 8 y el 20 de agosto de 1955.

En la conferencia fueron presentadas unas 450 ponencias científicas. Setenta y tres Estados y ocho agencias especializadas de las Naciones Unidas enviaron a sus respectivas delegaciones, las cuales estaban formadas por un total de 1.428 delegados, aparte de los 350 observadores procedentes en su mayor parte de universidades y empresas comerciales.

El extraordinario éxito de la conferencia, a la que asistieron 905 periodistas y en la que participaron numerosos expertos en ciencia nuclear, se debió a su carácter técnico más que político. Los científicos procedentes de diversos países, los cuales habían estado trabajando aisladamente, pudieron comprobar que básicamente habían llegado a las mismas conclusiones.

La ciencia y la tecnología han hecho grandes progresos desde 1955 y muchos países han comprobado que las ilimitadas perspectivas de una tecnología nuclear pacífica no eran tan benéficas como habían supuesto en un principio. Pero el intercambio de información entre Oriente y Occidente, el Norte y el Sur, contribuyó a aliviar las tensiones internacionales y sentó las bases para la creación de la Agencia Internacional de Energía Atómica, la cual está funcionando con éxito desde 1957, fecha de su fundación.

Concepto Físico de Energia Tipos y Ejemplos Trabajo Definición

Explicación Concepto de Energía

Si preguntamos con impaciencia qué es la energía no esperemos una respuesta rápida. La energía no es fácil de definir -entre otras cosas-por que no siempre podemos percibirla por medio de los sentidos.

Si nos piden que describamos una naranja, la podemos apoyar sobre un plato y mirarla para después olería, tocarla y probarla; en cambio, sería imposible colocar un poco de energía en el plato para arremeter con nuestros sentidos. Si bien la energía «no se ve», puede percibirse por sus efectos.

Por ejemplo, se manifiesta como energía del movimiento en un cuerpo que cae, en forma de luz y calor en el fuego, como energía química en una pila que hace funcionar una radio, en el flujo de la corriente eléctrica que mantiene en servicio a los electrodomésticos, a escala nuclear en una gigantesca explosión y, aunque parezca increíble, «en la naranja que apoyamos sobre el plato» almacenada como energía de reserva.

Para empezar podríamos definir al concepto de energía, como «la capacidad de realizar trabajo«. Una persona que trabaja necesita disponer de una reserva de energía que, en este caso, procede de los alimentos que ingiere.

La comida es una especie de combustible que se quema dentro de nuestro cuerpo, y una parte de la energía que se libera en el proceso de combustión es utilizada para mantener su temperatura, en tanto que otra es consumida por los músculos al moverse, lo que, en definitiva, constituye un trabajo mecánico.

En física, se realiza un trabajo cuando se traslada un peso a una cierta distancia. Su magnitud es el resultado del producto de la fuerza aplicada por la distancia recorrida, siempre que ambas tengan la misma dirección.

Si se levanta un ladrillo de 1 kg. a 1 metro de altura, se realiza un trabajo para vencerla fuerza de la gravedad. La fuerza aplicada es de 1 kg. y, como se ejerce a lo largo de 1 metro, el trabajo realizado es 1 kilográmetro (1 kgm.).

Al realizar este trabajo, se comunica energía al ladrillo. La persona que lo levanta le transfiere parte de la energía procedente de los alimentos que previamente ha ingerido. La energía adquirida por el ladrillo está en la forma de energía potencial, o energía de posición. Si lo dejamos caer, la energía potencial se convierte en energía cinética (energía debida a su movimiento).

Al levantar el ladrillo, el hombre realiza un trabajo y le transfiere energía mecánica, que se convierte en energía potencial.El ladrillo ha adquirido mayor energía potencial, cuya magnitud está dada por el producto de la fuerza por la distancia (altura).Al dejar caer el ladrillo, la energía potencial que había adquirido anteriormente se convierte, ese momento, en energía cinética.

De hecho, energía y trabajo están íntimamente relacionados, aplicándose este último término al proceso de transformación entre dos tipos distintos de energía. La cantidad de trabajo realizado es igual a la cantidad de energía que el ladrillo adquiere. Si se levanta el ladrillo a una altura doble se realiza un trabajo también doble, y el ladrillo adquiere el doble de energía.

Un hecho tan simple como levantar un ladrillo y dejarlo caer es causa de que la energía sufra distintas transformaciones. En primer lugar, la energía química de las sustancias orgánicas complejas, contenidas en nuestros alimentos, se convierte, fisiológicamente, en energía calorífica.

Después, se transforma en energía mecánica (en nuestra mano), para convertirse, posteriormente, en la energía potencial adquirida por el ladrillo. Al dejarle caer, la energía potencial se transforma en energía cinética y, al chocar con el suelo, parte de esta energía cinética se convierte de nuevo en calor, y otra parte se transmite al aire como energía acústica.

Es posible seguir el curso de una cierta cantidad de energía en esta cadena de transformaciones, ligadas por la realización de un trabajo. La cadena puede ramificarse si, en una etapa determinada, la energía se transforma en otros el momento inicial que en cualquiera de las etapas seguidas en un determinado proceso. Este principio constituye la denominada ley de la conservación de la energía, que es uno de los principios fundamentales de la física.

La palabra energía deja de pertenecer exclusivamente al lenguaje común para ingresar al lenguaje científico en el año 1807. La propuesta nace del médico y físico inglés Thomas Young, profesor de Filosofía Natural, de la Royal Institution de Londres.Thomas YungEnergía, en griego significa trabajo y Young la empleó para describir muchos fenómenos que los físicos de la época denominaban fuerza viva y que en la actualidad denominamos energía cinética o energía del movimiento.

La definición de energía dada por Young fue ignorada durante muchos años. Según él, energía era la capacidad para realizar un trabajo. Generalizando, hoy en día trabajo es la «aplicación de un esfuerzo para realizar una tarea».

Una grúa que levanta un contenedor realiza un trabajo. Ocurre lo mismo cuando una pelota rueda de un punto a otro o desplazamos una lapicera para dibujar una palabra en el papel. Tanto la grúa como la pelota y la lapicera deben sufrir la aplicación de una «fuerza», por esto la física define al trabajo como «la aplicación de una fuerza a través de una distancia». Dicho en otras palabras, un trabajo es la fuerza  que levanta, empuja o tira de un objeto a través de un número variable de metros.

La cantidad total de energía en el universo fue y será siempre la misma. Existen otros tipos de energía de especial importancia: energía luminosa, energía eléctrica y energía magnética, que pueden también transformarse en las otras modalidades de energía anteriormente descritas. Por ejemplo, es frecuente que se transformen entre sí las energías eléctrica, calorífica y luminosa; estas dos últimas se obtienen fácilmente de la primera.

La energía eléctrica es la que poseen los electrones cuando circulan por un circuito eléctrico sometido a una «presión eléctrica»; viene expresada por el producto de tres factores: la tensión, la intensidad y el tiempo. En las lámparas, la energía eléctrica se transforma en luz y calor.

Aunque su función primordial es la de proporcionar luz, las lámparas no son muy eficientes, y sus filamentos han de ponerse al rojo para poder emitirla. En una lámpara común, sólo un 5 % de la energía eléctrica se convierte en energía luminosa. El 95 % se transforma en calor. Los electrones, al fluir a través del circuito eléctrico, transfieren su energía al filamento de la lámpara, de igual forma que el hombre transmite energía al ladrillo al levantarlo o empujarlo.

Aunque la energía puede existir en muchas formas, tedas ellas son equivalentes. En el sistema cegesimal (basado en el centímetro, en el grano y en el segundo), la unidad de energía es el «ergio» el que puede expresarse cualquier tipo de energía. Para que los números que se obtengan en las medidas sean sencillas se han introducido otras unidades de energía, más adecuadas.

SISTEMA SEXAGESIMAL SISTEMA BRITÁNICO
Energía mecánica ERGIO
Si levantamos una masa de 1 gramo a la altura de un centímetro, adquiere una energía de 981 ergios.
LIBRA PESO-PIE
Energía adquirida al levantar una libra peso, un pie.
1 Ib. wt. ft. = 1,36
X 10″ ergios
Energía calorífica CALORÍA
Si hacemos subir 1°C la temperatura de 1 gramo de agua, ésta adquiere una energía calorífica de 1 caloría.
1 caloría = 4,19X 107 ergios.
B.T.U. (UNIDAD TÉRMICA BRITÁNICA)
Cantidad de energía calorífica que adquiere una libra de agua cuando su temperatura se eleva 1° Farenheit .
1 b.t.u. = 1,055
X 107
Energía eléctricaJULIO
Un julio es la energía desarrollada por una corriente de un amperio, cuando fluye durante un segundo a través de una diferencia de potencial de 1 voltio.
1 julio = 107 ergios.
No existe equivalente.
Energía de
partículas atómicas
ELECTRÓN-VOLTIO
Es la energía adquirida por un electrón acelerado a través de una diferencia de potencial de 1 voltio.
1 eV = 1,6X I»»12 ergios.
No existe equivalente.

Los electrones propios del filamento absorben esta energía y pasan a un estado excitado, encontrándose entonces en una posición similar a la que tenía el ladrillo después de haberlo levantado. Los electrones excitados pasan, casi inmediatamente, al estado original, con la consiguiente emisión de un tipo especial de energía, que afecta la porción sensible de la retina del ojo.

El cerebro humano interpreta esta impresión como una sensación luminosa. El Sol es, prácticamente, la fuente de toda la energía recibida por la Tierra. Parte de dicha energía es luz visible, pero otras porciones son invisibles.

EL SOL

El aparentemente sólido sol es en realidad una bola gaseosa opaca de hidrógeno. Su núcleo interno está en constante estado de fusión con liberación de enormes cantidades de luz y calor. Esto se hace perceptible a partir del halo de un eclipse.

La energía electromagnética (que comprende la energía luminosa) transmitida por el Sol es absorbida por las plantas y transformada en energía química, pues éstas la utilizan para sintetizar sustancias orgánicas complejas. La energía química es la principal fuente de energía directamente aprovechable por el hombre, y sus alimentos y combustibles lo confirman claramente.

La hulla, por ejemplo, proviene de restos vegetales que absorbieron energía luminosa del Sol, hace millones de años, y que puede ser liberada al quemarse este carbón. Dentro de la física, la energía es una magnitud de gran importancia, por la razón de que no puede ser destruida.

Si para un determinado proceso realizamos un cómputo energético, la energía inicial es igual a la final. Por este motivo, la energía es una magnitud cuya medida resulta siempre útil. La aparición de esta magnitud en todas las ramas de la física refuerza su importancia. Es la única que interviene tanto en mecánica, como en óptica, termodinámica, acústica, electricidad, magnetismo, física nuclear, etc.

Muchas de las distinciones establecidas entre las diversas ramas de la física no están muy bien definidas precisamente porque la energía puede transformarse, al mismo tiempo, en dos o más modalidades. Un ciclista, al mover los pedales, está realizando un trabajo.

La fuerza que ejercen sus pies se transmite a las ruedas y las hace girar. La energía desarrollada por el ciclista se transforma en energía cinética, ya que tanto él como la bicicleta se mueven. La dínamo de la bicicleta convierte una pequeña fracción de la energía cinética en energía eléctrica, que se usa para calentar el filamento de una lámpara y hacer que ésta emita energía luminosa.

TIPOS DE ENERGÍA
La energía calórica encuentra su origen en cualquiera de las otras formas: si martillamos un clavo (energía mecánica), la cabeza del clavo se calienta; el Sol nos da su calor en el frío invierno y nos broncea en el verano (energía radiante); la corriente eléctrica y el gas natural (energía química) son capaces de proporcionarnos calor en las épocas de baja temperatura.

La energía lumínica nos es tan familiar que a veces no somos capaces de valorarla.

La energía química, es la que nos proporcionan los alimentos y los combustibles. Un dispositivo ingenioso proporciona energía eléctrica a expensas de una reacción química: la pila.

la energía eléctrica es un fenómeno de naturaleza parecida a la de los imanes y la que recibimos a diario desde la usina generadora. Se origina en una turbina que desarrolla energía mecánica a partir de la energía química que le proporciona el combustible.

La energía nuclear es la manifestación energética que el hombre ha descubierto más recientemente. Es también la más peligrosa porque aún no se la sabe controlar perfectamente y puede ser usada con fines no pacíficos. Esta energía se obtiene destruyendo el núcleo del átomo.

Si la operación es controlada, esa energía servirá para mover la turbina que fabrica electricidad ; si no se controla, se revivirán episodios tristes como el de Hiroshima y Nagasaki en la Segunda Guerra Mundial.

La energía mecánica la más familiar para todos, y no es más que la que se pone en juego en el movimiento del cuerpo de una maquinaria, el simple acto de martilla o golpear el parche de un tambor, el arrojar una piedra o batir un pote de crema. La física la clasifica en energía potencial y energía cinética.

La energía potencial es la que guardan come reserva los cuerpos en reposo. Cuando un niño de cuatro años ya lee y escribe todos dicen que el un «genio en potencia»; quieren decir que aún no es un genio, pero lleva en sí mismo cualidades «potenciales» que le permitirán serlo en el futuro.

En cambio la energía cinética (de kinema que en griego significa movimiento) es la energía que los cuerpos gastan al ponerse en movimiento. La energía cinética se diferencia de la potencial porque en aquélla influye un nuevo factor: la velocidad con la que el cuerpo se mueve. La humanidad todavía no tiene la última palabra en el tema energético. «Le llevó toda su existencia descubrirla y todavía no ha terminado de hacerlo».

MASA Y ENERGÍA:

La materia misma es una fuente de energía. Una masa pequeñísima es equivalente a una gran cantidad de energía. Concretamente, un gramo es equivalente a 931.000.000.000.000.000.000 ergios No es fácil, sin embargo, transformar la masa en energía. Esto sólo puede realizarse en circunstancias especiales; por ejemplo, en un reactor nuclear. Los átomos de uranio, al desintegrarse, «pierden» una pequeña fracción de su masa, la cual se convierte en energía.

Si un átomo fuera un estadio de fútbol, su núcleo sería como una mosca en el centro del campo de juego. Pero cuando se divide un núcleo inestable como el del Uranio, la energía desprendida por unos pocos kilogramos de este metal es equivalente a la explosión de miles de toneladas de TNT. Esta reacción llamada fusión ocurre normalmente sin detenerse en el sol.

El hombre reproduce este fenómeno en las usinas nucleares y en las bombas atómicas. Las bombas H tienen un poder que ronda las cien kilotoneladas (1 kilotonelada es igual a 1000 toneladas de TNT).

E=m.c2

La conversión teórica de masa en energía conduce a cantidades asombrosas. Estos ejemplos representan el equivalente de un kilogramo de masa convertido en energía:

– una plancha eléctrica encendida un millón de años.
– un acondicionador de aire en marcha 300.000 años.
– una caldera doméstica encendida sin parar de 25.000 a 30.000 años.
– un automóvil que da 180.000 veces la vuelta al mundo.
– el mayor buque cisterna dando 400 veces la vuelta al mundo.

Un escape pequeño puede ser grandísimo…
Einstein explicó la cantidad de energía que se pierde al transformarse la masa en energía, con la ecuación:

E=m.c2

Esta fórmula ha iniciado la era atómica y ha aclarado el mecanismo del sol como fuente de energía solar. La fórmula encierra la afirmación de que la masa puede transformarse en energía y viceversa. «E» quiere decir energía; «M» significa masa y «C» representa la velocidad de la luz en el vacío, es decir 300.000 kilómetros por segundo.

Elevando «C» al cuadrado (multiplicando el valor indicado por sí mismo), resulta una cifra astronómica. Quiere decir que una pequeña cantidad de masa puede transformarse en una gigantesca cantidad de energía. Pensemos en una bomba atómica, o en el Sol, que perdiendo una cantidad insignificante de materia, ha podido irradiar energía durante tanto tiempo y estará en condiciones de hacerlo por miles de millones de años.

FUENTES DE ENERGÍA: Se denominan fuentes de energía o recursos energéticos todos aquellos componentes de la Naturaleza a partir de los cuales es posible obtener energía utilizable por el hombre. Casi todas las fuentes de energía proceden en última instancia del Sol. Esta energía solar, o bien se utiliza directamente, o bien da lugar a la formación del resto de los recursos energéticos

 Así, las plantas utilizan directamente la energía solar para producir sus alimentos, con lo que crecen y se desarrollan, originando a su vez nuevos recursos energéticos como el carbón, que procede de la fosilización de cantidades inmensas de plantas que han estado enterradas durante miles de años.

Las fuentes de energía se clasifican normalmente atendiendo al carácter de que se agoten al paso del tiempo o de que sean prácticamente inagotables. Así, se distinguen las energías renovables y las energías no renovables.

« Son energías renovables aquellas que existen en cantidades ilimitadas y, por tanto, no se agotan por mucho que se utilicen. Entre las energías renovables están la energía solar, la hidráulica, la eólica. la de la biomasa y la maremotriz.

» Son energías no renovables aquellas que existen en cantidades limitadas en la Naturaleza, de forma que se agotan a medida que se van utilizando. Entre las energías no renovables están la energía del petróleo, la del carbón, la del gas natural, la geotérmica y la nuclear.

Las fuentes de energía también pueden clasificarse atendiendo a la incidencia que tengan en la economía de un país en un momento determinado. Así se tienen las energías convencionales  y as energías no convencionales.

• Se llaman fuentes de energía convencionales aquellas que tienen una ¿reincidencia en el consumo energético de los países industrializados.

Entre las fuentes de energía convencionales se pueden citar todas las fuentes de energía no renovables y la energía hidráulica.

• Se llaman fuentes de energía no convencionales o energías alternativa aquellas que hoy día se encuentran en fase de estudio con el propósito de  sustituir o reforzar en un futuro a las fuentes de energía convencionales. Entre las fuentes de energía no convencionales se pueden citar la energía  solar, la eólica, la maremotriz, la geotérmica, la de la biomasa, etc.

Fuente Consultada:
Revista TECNIRAMA N°67
FÍSICA II Polimodal
FÍSICO-QUIMICA Secundaria Santillana

Hallar Coordenadas Geográficas de un Lugar Latitud y Longitud Terrestre

Hallar Coordenadas Geográficas de un lugar Latitud y Longitud

Coordenadas geográficas: latitud y longitud

Para conocer latitud y longitud de un punto de la superficie de la Tierra, primero tenemos que conocer algunos conceptos que nos ayudarán a comprender mejor el tema.

Observa en la figura que Tierra está recorrida por líneas imaginarias que forman una red como la de los pescadores; las líneas que corren en sentido vertical se llaman meridianos y las otras, en sentido horizontal, son los paralelos.

hallar las coordendas geograficas

De todos ellos interesa nombrar al Ecuador, que es el paralelo mayor y divide la Tierra en dos partes iguales llamadas hemisferios Norte (boreal o septentrional) y Sur (austral o meridional); el meridiano de Greenwich, que la divide en dos partes iguales, pero en este caso determina los hemisferios Este (oriental) y Oeste (occidental).

Hacemos referencia especial al Ecuador y a Greenwich porque con ellos se determina la latitud y longitud respectivamente.

Entonces ahora podemos definir que la latitud de un punto en la superficie terrestre, es la distancia que existe entre ese punto y el Ecuador.

Se mide en grados y varía de 0° a 90° Norte y de 0° a 90° Sur, siendo 0° el Ecuador y 90° los polos.

La longitud, en cambio, es la distancia que existe entre el punto de la superficie terrestre y el meridiano de Greenwich. También se mide en grados, y varía entre 0° y 180° Este y 0° y 180° Oeste.

Todos los puntos de la superficie terrestre pueden localizarse por su latitud y longitud. Los que se encuentran sobre un mismo paralelo tienen la misma latitud, por eso para localizarlos exactamente se debe establecer también

El Sistema de Coordenadas Geográficas determina todas las posiciones de la superficie terrestre utilizando las dos coordenadas angulares de un sistema de coordenadas esféricas que está alineado con el eje de rotación de la Tierra. Este define dos ángulos medidos desde el centro de la Tierra: 

La latitud mide el ángulo entre cualquier punto y el ecuador. Las líneas de latitud se llaman paralelos y son círculos paralelos al ecuador en la superficie de la Tierra.

La longitud mide el ángulo a lo largo del ecuador desde cualquier punto de la Tierra. Se acepta que Greenwich en Londres es la longitud 0 en la mayoría de las sociedades modernas. Las líneas de longitud son círculos máximos que pasan por los polos y se llaman meridianos.

Combinando estos dos ángulos, se puede expresar la posición de cualquier punto de la superficie de la Tierra.

Por ejemplo, Baltimore, Maryland (en los Estados Unidos), tiene latitud 39,3 grados norte, y longitud 76,6 grados oeste. Así un vector dibujado desde el centro de la tierra al punto 39,3 grados norte del ecuador y 76,6 grados al oeste de Greenwich pasará por Baltimore.

Las Distancias en El Universo:Cifras Astronomicas Medidas y Escalas

LAS DISTANCIAS EN EL UNIVERSO

Las Distancias en El Universo:Cifras Astronomicas Medidas y Escalas

A medida que la Tierra gira sobre su eje, un punto sobre el ecuador se mueve a unos 1.600 Km. por hora.

En su giro alrededor del Sol, la Tierra recorre unos 30 Km. por segundo. En un día recorre más de 2 500.000 Km.

Es bastante curioso comprobar que el diámetro de la órbita terrestre es casi exactamente mil veces mayor que la distancia recorrida por la luz en un segundo.

El recorrido anual de la Tierra alrededor del Sol es de casi mil millones de Km. Un niño de diez años de edad ha viajado casi diez mil millones de Km. aun cuando nunca haya salido de la localidad en que vive.

Al girar la Vía Láctea sobre sí misma, el Sol y sus planetas se mueven a unos 250 Km. por segundo. Aun así, el Sol necesita unos 200 millones de años para realizar un giro completo alrededor del centro de la galaxia.

Las galaxias se alejan velozmente unas de otras en el universo. Algunas de ellas recorren más de 100 000 Km. por segundo.

Se necesitaría más de un millón de esferas iguales a la Tierra para hacer una esfera igual a la del Sol.

Algunas de las grandes “llamaradas” que brotan del Sol (protuberancias solares) alcanzan una altura de varios cientos de miles de kilómetros. La más alta que se haya registrado tenía 1 600 000 kilómetros:

Se necesitarían 27 000 millones de soles para hacer una esfera tan grande como la estrella roja gigante llamada Epsilon de Auriga.

Cada hora, alrededor de un millón de meteoritos llega a nuestra atmósfera. Casi todos, salvo muy raras excepciones, se desintegran antes de llegar a la superficie de la Tierra. No obstante, los meteoritos pueden representar un verdadero peligro para los viajes espaciales.

En nuestra galaxia de la Vía Láctea existen por lo menos 200.000 millones de estrellas.

Se sabe que en el universo existen más de cien mil millones de galaxias.

Si todas las estrellas de la Vía Láctea tuvieran nombre, se necesitarían 4.000 años para decirlos todos, suponiendo que se pronunciara uno por segundo sin detenerse.

En todas las galaxias juntas debe haber, probablemente, tantas estrellas como granos de arena existen en todas las playas del globo terrestre.

La estrella más cercana a nuestro Sol está a 40 billones de Km. de éste.

Pese a los millones de estrellas existentes, el espacio no está ocupado en exceso. Se halla tan cubierto de estrellas como lo estaría América del Sur de ardillas si hubiera solamente tres de ellas corriendo por todo el continente.

La longitud de nuestra galaxia es de alrededor de 100 000 años luz (100 000 veces 10 billones de Km.).

Nuestro Sol está a unos 30 000 años luz (30 000 veces 10 billones de Km.) del centro de la Vía Láctea.

La Gran Espiral de Andrómeda es la galaxia más cercana a nuestra Vía Láctea. Está a una distancia de más de 2 millones de años luz (20 trillones de km).

Las galaxias más lejanas que pueden ser observadas con nuestros telescopios están a una distancia de unos 2 000 millones de años luz, aproximada mente.

La temperatura en la superficie del Sol es de 6 000 °C. En su interior alcanza a 14 millones de grados.

En un año, el Sol utiliza 22 trillones de toneladas de su hidrógeno para producir la energía que irradia. Pero, a pesar de esto, sus reservas de hidrógeno le permitirán existir todavía durante miles de millones de años.

La Nebulosa del Cangrejo es una inmensa nube de gas que se extiende a lo largo de 25 000 billones de Km. Desde hace 5 000 años, esta nebulosa crece a razón de 1.000 Km. por segundo.

Una cucharada de la materia que forma ciertas estrellas (las estrellas enanas) pesaría en la Tierra más de una tonelada.

La atracción de la gravedad en la superficie de la estrella enana que acompaña a Sirio (Sirio B) es 250 000 veces mayor que en la superficie de la Tierra.

Porque se Dilata el Agua al Congelarse? Resumen Explicacion Facil

Porque se Dilata el Agua al Congelarse?

Primero cabria preguntar: ¿por qué son sólidos los sólidos? ¿Y por qué son líquidos los líquidos? Entre las moléculas de una sustancia sólida hay una cierta atracción que las mantiene firmemente unidas en una posición fija.

Es difícil separarlas y, por consiguiente la sustancia es sólida.

Sin embargo, las moléculas contienen energía de movimiento y vibran alrededor de esas posiciones fijas.

Al subir la temperatura, van ganando cada vez más energía y vibrando con mayor violencia.

En último término adquieren tanta energía que la atracción de las demás moléculas no basta ya para retenerlas.

Rompen entonces las ligaduras y empiezan a moverse por su cuenta, resbalando y deslizándose sobre sus compañeras. El sólido se ha licuado: se ha convertido en un líquido.

Cristal de Agua Congelada

La mayoría de los sólidos son cristalinos. Es decir, las moléculas no sólo permanecen fijas en su sitio, sino que están ordenadas en formaciones regulares, en filas y columnas.

Esta regularidad se rompe, cuando las moléculas adquieren suficiente energía para salirse de la formación, y entonces el sólido se funde.

La disposición regular de las moléculas en un sólido cristalino suele darse en una especie de orden compacto. Las moléculas se apiñan unas contra otras, con muy poco espacio entre medías.

Pero al fundirse la sustancia, las moléculas, al deslizarse unas sobre otras, se empujan y desplazan.

El efecto general de estos empujones es que las moléculas se separan un poco más. La sustancia se expande y su densidad aumenta. Así pues, en general los líquidos son menos densos que los sólidos.

O digámoslo así: los sólidos se expanden al fundirse y los líquidos se contraen al congelarse.

Sin embargo, mucho depende de cómo estén situadas las moléculas en la forma sólida. En el hielo, por ejemplo, las moléculas de agua están dispuestas en una formación especialmente laxa, en una formación tridimensional que en realidad deja muchos «huecos».

Al aumentar la temperatura, las moléculas quedan sueltas y empiezan a moverse cada una por su lado, con los empujones y empellones de rigor.

Lo cual las separaría, si no fuese porque de esta manera muchas de ellas pasan a rellenar esos huecos. Y al rellenarlos, el agua líquida ocupa menos espacio que el hielo sólido, a pesar de los empujones moleculares.

Al fundirse 1,0 centímetro cúbico de hielo sólo se forman 0,9 centímetros cúbicos de agua.

Como el hielo es menos denso que el agua, flota sobre ella.

Un centímetro cúbico de hielo se hunde en el agua hasta que quedan 0,9 centímetros cúbicos por debajo de la superficie. Estos 0,9 cm3 desplazan 0,9 cm3 de agua líquida, que pesan tanto como el centímetro cúbico entero de hielo.

El hielo es sostenido entonces por el empuje del agua, quedando 0,1 centímetros cúbicos por encima de la superficie.

Todo esto es válido para el hielo en general. Cualquier trozo de hielo flota en el agua, con una décima parte por encima de la superficie y nueve décimas por debajo.

Esta circunstancia resulta muy afortunada para la vida en general, pues tal como son las cosas, cualquier hielo que se forme en una masa de agua, flota en la superficie.

Aísla las capas más profundas y reduce la cantidad de calor que escapa de abajo. Gracias a ello las aguas profundas no suelen congelarse, ni siquiera en los climas más gélidos. En cambio, en épocas más calurosas el hielo flotante recibe el pleno efecto del Sol y se funde rápidamente.

Si el hielo fuese más denso que el agua, se hundiría al fondo a medida que fuese formándose, dejando al aire libre otra capa de agua, que a su vez se congelaría también. Además el hielo del fondo, no tendría posibilidad ninguna de recoger el calor del Sol y fundirse.

Si el hielo fuese más denso que el agua, las reservas acuáticas del planeta estarían casi todas ellas congeladas, aunque la Tierra no estuviese más lejos del Sol que ahora.

Ver Propiedades y Características Generales del Agua

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

curiosidades sobre la ciencia

Que es la poliagua? Molecula de Agua

¿Qué es la poliagua? Molécula de Agua

Al describir la molécula de agua suele decirse que está compuesta por dos átomos de hidrógeno y uno de oxígeno: H2O.

Sí la cosa acabara ahí, sería una molécula pequeña con bajo punto de ebullición.

El sulfuro de hidrógeno (H2S), que tiene una molécula parecida, pero más pesada (porque el S es más pesado que el O), es un gas que no se lícúa hasta los -61,8º C. Si el agua no, fuese más que H2O, se licuaría a una temperatura todavía más baja, quizá alrededor de los –80º C.

Pero consideremos la forma de las moléculas de agua Los tres átomos forman un ángulo casi recto, con el de oxígeno en el vértice.

El oxígeno comparte dos electrones con cada uno de los átomos de hidrógeno, pero el reparto no es equitativo. El oxígeno ejerce una mayor atracción sobre los electrones, de modo que éstos, con su carga eléctrica negativa, están muy del lado del oxígeno.

Por eso, aunque la molécula de agua es eléctricamente neutra en su conjunto, la parte del oxígeno tiene una pequeña carga negativa, mientras que los dos átomos de hidrógeno tienen pequeñas cargas positivas que contrarrestan a aquélla.

Las cargas de signo opuesto se atraen.

Hay, pues, una tendencia a que dos moléculas del agua se alineen de manera que el extremo negativo (el del oxígeno) de una de ellas quede adyacente al positivo (el del hidrógeno) de la siguiente.

Esto constituye un «enlace de hidrógeno» que es veinte veces más débil que los enlaces normales que unen al hidrógeno y al oxígeno dentro de la molécula. Sin embargo, basta para que las moléculas de agua sean «pegajosas».

Debido a esta pegajosidad, las molécula de agua se unen con más facilidad y se separan con más dificultad que si no fuese así.

Para superar esa fuerza pegajosa y hacer que hierva el agua, hace falta calentarla a 100º C.

Cuando la temperatura baja hasta 0ª C, la prevalencia de enlaces de hidrógeno es tal, que las moléculas de agua quedan fijas en su sitio, formándose hielo.

De no ser por los enlaces de hidrógeno la temperatura tendría que ser mucho más baja para que esto ocurriera.

En una molécula como la del H2S no sucede la mismo, porque el átomo de azufre y el de hidrógeno tienen una apetencia de electrones aproximadamente igual. No hay acumulación de cargas ni a un lado ni al otro y, por consiguiente, la molécula no es «pegajosa».

Supongamos ahora que tenemos moléculas de agua en un espacio muy limitado, un tubo de vidrio muy fino, pongamos por caso.

En estas condiciones tendrán que apelotonarse unas contra otras más de lo normal.

El átomo de oxígeno de una de las moléculas se verá empujado muy cerca del átomo de hidrógeno del vecino, tanto, que el enlace de hidrógeno se hará tan fuerte como un enlace ordinario.

Las dos moléculas se convierten en una, y a esta doble molécula se podrá enganchar otra, y luego otra, etc.

Al final habrá multitud de moléculas fuertemente, unidas entre sí, con todos los hidrógenos y oxígenos formando hexágonos regulares.

La sustancia múltiple resultante es un ejemplo de «polímero». Es «agua polimerizada», o «poliagua» en abreviatura.

Para poder romper esta sustancia (anunciada por vez primera por químicos soviéticos en 1965) en moléculas H2O de vapor de agua, hay que calentarla hasta 500º C. Y debido también a que las moléculas están aquí mucho más apelotonadas que en el agua ordinaria, la poliagua tiene una densidad 1,5 veces superior a la del agua normal.

Sin embargo, la noción de poliagua no ha sido aceptada universalmente. Muchos químicos. piensan que lo que se ha llamado poliagua es en realidad agua que ha cogido impurezas o que ha disuelto un poco de vidrio.

En este caso puede ser que la poliagua ni siquiera exista.

Mas sobre las Propiedades del Agua

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Qué es la «poliagua»? Si sigue siendo H2O, ¿cuál es la diferencia?

preguntas curiosas sobre la ciencia

Los gases nobles Gases Inertes Argon Neon Helio

Los Gases Nobles – Gases Inertes

¿Qué tienen de noble los gases nobles?

Los elementos que reaccionan difícilmente o que no reaccionan en absoluto con otros elementos se denominan «inertes». El nitrógeno y el platino son ejemplos de elementos inertes.

En la última década del siglo pasado se descubrieron en la atmósfera una serie de gases que no parecían intervenir en ninguna reacción química.

Estos nuevos gases —helio, neón, argón, criptón, xenón y radón— son más inertes que cualquier otro elemento y se agrupan bajo el nombre de «gases inertes».

Los elementos inertes reciben a veces el calificativo de «nobles» porque esa resistencia a reaccionar con otros elementos recordaba un poco a la altanería de la aristocracia. El oro y el platino son ejemplo de «metales nobles», y por la misma razón se llamaba a veces «gases nobles» a los gases inertes.

Hasta 1962 el nombre más común era el de «gases inertes», quizá porque lo de nobles parecía poco apropiado en sociedades democráticas.

https://historiaybiografias.com/archivos_varios5/gases-nobles.jpg

La razón de que los gases inertes sean inertes es que el conjunto de electrones de cada uno de sus átomos está distribuido en capas especialmente estables. La más exterior, en concreto, tiene ocho electrones.

Así la distribución electrónica del neón es (2, 8) y la del argón (2, 8, 8). Como la adición o sustracción de electrones rompe esta distribución estable, no pueden producirse cambios electrónicos.

Lo cual significa que no se pueden producir reacciones químicas y que esos elementos son inertes.

Ahora bien, el grado de inercia depende de la fuerza con que el núcleo, cargado positivamente y situado en el centro del átomo, sujeta a los ocho electrones de la capa exterior.

Cuantas más capas electrónicas haya entre la exterior y el centro, más débil será la atracción del núcleo central.

Quiere esto decir que el gas inerte más complejo es también el menos inerte. El gas inerte de estructura atómica más complicada es el radón.

Sus átomos tienen una distribución electrónica de (2, 8, 18, 32, 18, 8).

El radón, sin embargo, está sólo constituido por, isótopos radiactivos y es un elemento con el que difícilmente se pueden hacer experimentos químicos.

El siguiente en orden de complejidad es el xenón, que es estable. Sus átomos tienen una distribución electrónica de (2, 8, 18, 18, 8).

Los electrones más exteriores de los átomos de xenón y radón están bastante alejados del núcleo y, por consiguiente, muy sueltos.

En presencia de átomos que tienen una gran apetencia de electrones, son cedidos rápidamente.

El átomo con mayor apetencia de electrones es el flúor, y así fue como en 1962 el químico canadiense Neil Bartlett consiguió formar compuestos de xenón y flúor.

Desde entonces se ha conseguido formar también compuestos de radón y criptón. Por eso los químicos rehuyen el nombre de «gases inertes», porque, a fin de cuentas, esos átomos no son completamente inertes.

Hoy día se ha impuesto la denominación de «gases nobles» y existe toda una rama de la química que se ocupa de los «compuestos de gases nobles».

Naturalmente, cuanto más pequeño es el átomo de un gas noble, más inerte es, y. no se ha encontrado nada que sea capaz de arrancarles algún electrón.

El argón, cuya distribución electrónica es (2, 8, 8), y el neón, con (2, 8), siguen siendo completamente inertes.

Y el más inerte de todos es el helio, cuyos átomos contienen una sola capa electrónica con dos electrones (que es lo máximo que puede alojar esa primera capa).

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

preguntas curiosas gases

El Efecto Coriolis en el Planeta Tierra Fuerza Coriolis

El Efecto Coriolis en el Planeta Tierra

Moverse por un objeto que sea estacionario o que se desplace a velocidad constante con respecto a un punto fijo no representa ningún problema.

Si queremos desplazarnos desde el punto A en uno de los extremos hasta el punto B en el extremo contrario, lo podremos hacer sin experimentar ninguna dificultad.

Pero la situación cambia cuando, las distintas partes del objeto llevan una velocidad diferente.

Pensemos en un tiovivo o cualquier otro objeto plano y grande que gire alrededor de su centro.

El objeto entero gira de una pieza, pero lo cierto es que cualquier punto cercano al centro describe un círculo pequeño y se mueve despacio mientras que los puntos próximos al borde exterior describen círculos grandes y se mueven, por tanto, muy deprisa.

efecto coriolisImagina que estás en un punto próximo al centro y que quieres dirigirte a otro cerca del borde exterior, siguiendo una línea recta que arranque del centro.

En el punto de salida, cerca del centro, participas de la velocidad de dicho punto y, por tanto, te mueves despacio.

Sin embargo, a medida que avanzas hacia afuera el efecto de la inercia tiende a que sigas moviéndote despacio mientras que el suelo que pisas va cada vez más rápido.

La combinación de tu lentitud y la rapidez del suelo hacen que te sientas empujado en la dirección opuesta a la del movimiento de giro.

Si el tiovivo gira en dirección contraria a la de las manillas del reloj, comprobarás que tu trayectoria se curva cada vez, más en el sentido de las manillas del reloj a medida que avanzas.

Si empiezas en un punto próximo al borde exterior y avanzas hacia el centro, retendrás la rapidez de dicho punto al tiempo que el suelo irá moviéndose cada vez más despacio debajo de tus pies.

Por consiguiente, te sentirás empujado cada vez más en la dirección de giro. Sí el tiovivo se mueve en dirección contraria a la de las manillas del reloj, tu trayectoria se curvará cada vez más en el sentido de las agujas del reloj.

Saliendo de un punto próximo al centro, desplazándote hasta un punto cercano al borde exterior y volviendo luego al centro, comprobarás —si sigues siempre el camino de menor resistencia— que has descrito una trayectoria más o menos circular.

Este fenómeno fue estudiado por primera vez con detalle en 1835 por el físico francés Gaspard de Coriolis, y en honor suyo se llama «efecto Coriolis».

A veces se denomina «fuerza de Coriolis», pero en realidad no es una fuerza, sino simplemente el resultado de la inercia.

La consecuencia más importante del efecto Coriolis para los asuntos cotidianos tiene que ver con la rotación de la Tierra.

Los puntos de la superficie terrestre cercanos al ecuador describen en el lapso de veinticuatro horas un gran círculo y, por tanto, se mueven muy deprisa.

Cuanto más al norte (o al sur) nos movamos, menor es el círculo descrito por un punto de la superficie y más despacio se mueve.

Los vientos y corrientes oceánicas que corren hacía el norte desde los trópicos llevan desde el principio, por la misma rotación terrestre, un rápido movimiento de oeste a este.

Al desplazarse hacia el norte conservan su velocidad, pero como resulta que la superficie de la Tierra se mueve cada vez más despacio, el viento o la corriente se adelanta y empieza a curvarse hacia el este.

Al final acaban por moverse en grandes círculos: a derechas en el hemisferio norte y a izquierdas en el hemisferio sur.

Es, precisamente el efecto Coriolis el que inicia ese movimiento circular que, concentrado en mayor grado (y, por tanto, más energéticamente) da origen a los huracanes, y en grado aún mayor, a los tornados.

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Qué es el efecto Coriolis?

preguntas curiosas ciencia

La Vida Media de un Isotopo Quimico La Desintegracion Radiactiva

La Vida Media de un Isótopo Químico

Hay átomos que son inestables. Abandonados a su suerte, tarde o temprano experimentan espontáneamente un cambio.

De su núcleo saldrá una partícula energética o un fotón de rayos gamma y el átomo se convertirá en otro diferente. (Los isótopos son tipos particulares de átomos.)

Una serie de átomos inestables agrupados en un lugar radiarán partículas o rayos gamma en todas direcciones, por lo cual se dice que son radiactivos.

No hay ningún modo de predecir cuándo un átomo radiactivo va a experimentar un cambio. Puede que sea al cabo de un segundo o de un año o de billones de años. Por tanto, es imposible medir la «vida entera» de un átomo radiactivo, es decir el tiempo que permanecerá inalterado.

La «vida entera» puede tener cualquier valor, y por consiguiente no tiene sentido hablar de ella.

Pero supongamos que lo que tenemos es una multitud de átomos de un determinado isótopo radiactivo concentrados en un lugar.

En cualquier momento dado habrá algunos que estén experimentando un cambio.

En esas condiciones se comprueba que aunque es imposible saber cuándo va a cambiar un átomo concreto, sí que se puede predecir que al cabo de tantos segundos cambiarán tantos y tantos átomos de un total de un cuatrillón, pongamos por caso.

https://historiaybiografias.com/archivos_varios5/vida-media-isotopo.jpg

Todo es cuestión de estadística.

Es imposible saber si Fulanito de tal va a morir o no en un accidente de coche en tal y tal año, pero sí se puede predecir con bastante precisión cuántos habitantes del país van a morir en carretera ese año.

Dado un número grande de átomos de un isótopo determinado, es posible medir la cantidad de radiación en un momento dado y predecir la radiación (el número de átomos que cambian) en cualquier tiempo futuro.

Y se comprueba que, en virtud de cómo se producen esos cambios, siempre hace falta el mismo tiempo para que cambien 1/10 de todos los átomos, independientemente de cuántos hubiese al principio.

Es más, siempre hace falta el mismo tiempo para que cambien 2/10 de ellos, ó 4/17, ó 19/573, o cualquier otra fracción, independientemente del número inicial de átomos.

Así pues, en lugar de hablar de la «vida entera» de los átomos de un isótopo particular —que carecería de sentido—, se suele hablar del tiempo que tarda en cambiar una fracción determinada de los átomos, lo cual es muy fácil de medir.

La fracción más simple es 1/2, y por eso se suele hablar del tiempo que tiene que pasar para que la mitad de los átomos de un isótopo experimenten un cambio. Esa es la «vida media» del isótopo.

Cuanto más estable es un isótopo, menos probable es que sus átomos experimenten un cambio y que un número dado de átomos experimenten un cambio al cabo de una hora, por ejemplo, después de iniciar las observaciones.

Esto significa que hace falta más tiempo para que la mitad de los átomos cambien.

Con otras palabras: cuanto más larga es la vida media de un isótopo, tanto más estable; cuanto más corta la vida media, menos estable.

Algunas vidas medias son verdaderamente grandes. El isótopo torio-232 tiene una vida media de catorce mil millones de años. Haría falta todo ese tiempo para que la mitad de cualquier cantidad de torio-232 se desintegrara.

Por eso queda todavía tanto torio-232 en la corteza terrestre, pese a que lleva allí (desintegrándose continuamente) casi cinco mil millones de años.

Pero también hay vidas medias que son muy cortas. La del isótopo helio-5 es aproximadamente igual a una cienmillonésima parte de una billonésima de segundo.

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Vida Media de un Isótopo Químico?

preguntas curiosas: derretimiento de los casquetes polares

Las Particulas Subatomicas del Universo Cuantas Particulas Hay?

Las Partículas Subatómicas del Universo

En realidad no hay una respuesta concreta a esta pregunta, porque de entrada no sabemos cómo es de grande el universo. Sin embargo hagamos algunas hipótesis.

Uno de los cálculos es que hay unas 100.000.000.000 ( ó 1011, un 1 seguido de 11 ceros) de galaxias en el universo. Cada una de estas galaxias tiene por término medio una masa 100.000.000.000 (ó 10¹¹) mayor que la del Sol.

Quiere decirse que la cantidad total de materia en el universo es igual a 10¹¹ x 10¹¹ ó 10²³ veces la masa del Sol. Dicho con otras palabras, en el universo hay materia suficiente para hacer 10.000.000.000.000.000.000.000 (diez mil trillones) de soles como el nuestro.

La masa del Sol es de 2  10³³ gramos. Esto significa que la cantidad total de materia en el universo tiene una masa de 1022x2x10³³gramos.
Lo cual puede escribirse como 20.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000. Dicho con palabras, veinte nonillones.

Procedamos ahora desde el otro extremo. La masa del universo está concentrada casi por entero en los nucleones que contiene. (Los nucleones son las partículas que constituyen los componentes principales del núcleo atómico.) Los nucleones son cosas diminutas y hacen falta 6x 10²³ de ellos para juntar una masa de 1 gramo.

Pues bien, si 6 x 1023 nucleones hacen 1 gramo y si hay 2 x 1055 gramos en el universo, entonces el número total de nucleones en el universo es 6 x 1023 x 2 x1055 ó 12 x1078, que de manera más convencional se escribiría 1,2 x1079.

Los astrónomos opinan que el 90 por 100 de los átomos del universo son hidrógeno, el 9 por 100 helio y el 1 por 100 elementos más complicados. Una muestra típica de 100 átomos consistiría entonces en 90 átomos de hidrógeno, 9 átomos de helio y 1 átomo de oxígeno (por ejemplo).

Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones.

Los cien átomos juntos contendrían, por tanto, 142 nucleones: 116 protones y 26 neutrones

Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva y como el universo es, según se cree, eléctricamente neutro en su conjunto, tiene que existir un electrón (con una carga eléctrica negativa) por cada protón.

Así pues, por cada 142 nucleones hay 116 electrones (para compensar los 116 protones). Para mantener la proporción, los 1,2 x  1079 nucleones del universo tienen que ir acompañados de 1 x1079 electrones. Sumando los nucleones y electrones, tenemos un número total de 2,2 x  1079 partículas de materia en el universo. Lo cual se puede escribir como 22.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000 (ó 22 tredecillones).

Si el universo es mitad materia y mitad antimateria, entonces la mitad de esas partículas son antinucleones y antielectrones. Pero esto no afectaría al número total.

De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones. Pero como son partículas sin masa no las contaré. Veintidós tredecíllones es después de todo suficiente y constituye un universo apreciable.

Ver: Todo Sobre El Átomo

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

El Científico Más Grande de la Historia Creador de la Mecanica

El Científico Más Grande de la Historia – Creador de la Mecanica

¿Quién fue, en su opinión, el científico más grande que jamás existió?

Si la pregunta fuese «¿Quién fue el segundo científico más grande?» sería imposible de  contestar. Hay por lo menos una docena de hombres que, en mi opinión, podrían aspirar a esa segunda plaza. Entre ellos figurarían, por ejemplo, Albert Einstein, Ernest Rutherford, Niels Bohr, Louis Pasteur, Charles Darwin, Galileo Galilei, Clerk Maxwell, Arquímedes y otros.

Resultado de imagen para historiaybiografias.com newton

Incluso es muy probable que ni siquiera exista eso que hemos llamado el segundo científico más grande. Las credenciales de tantos y tantos son tan buenas y la dificultad de distinguir niveles de mérito es tan grande, que al final quizá tendríamos que declarar un empate entre diez o doce.

Pero como la pregunta es «¿Quién es el más grande?», no hay problema alguno. En mi opinión, la mayoría de los historiadores de la ciencia no dudarían en afirmar que Isaac Newton fue el talento científico más grande que jamás haya visto el mundo.

Tenía sus faltas, viva el cielo: era un mal conferenciante, tenía algo de cobarde moral y de llorón autocompasivo y de vez en cuando era víctima de serias depresiones. Pero como científico no tenía igual.

Fundó las matemáticas superiores después de elaborar el cálculo. Fundó la óptica moderna mediante sus experimentos de descomponer la luz blanca en los colores del espectro.

Fundó la física moderna al establecer las leyes del movimiento y deducir sus consecuencias. Fundó la astronomía moderna estableciendo la ley de la gravitación universal.

Cualquiera de estas cuatro hazañas habría bastado por sí sola para distinguirle como científico de importancia capital. Las cuatro juntas le colocan en primer lugar de modo incuestionable.

Pero no son sólo sus descubrimientos lo que hay que destacar en la figura de Newton. Más importante aún fue su manera de presentarlos.

Los antiguos griegos habían reunido una cantidad ingente de pensamiento científico y filosófico.

Los nombres de Platón, Aristóteles, Euclides, Arquímedes y Ptolomeo habían descollado durante dos mil años como gigantes sobre las generaciones siguientes.

Los grandes pensadores árabes y europeos echaron mano de los griegos y apenas osaron exponer una idea propia sin refrendarla con alguna referencia a los antiguos. Aristóteles, en particular, fue el «maestro de aquellos que saben».

Durante los siglos XVI y XVII, una serie de experimentadores, como Galileo y Robert Boyle, demostraron que los antiguos griegos no siempre dieron con la respuesta correcta.

Galileo, por ejemplo, tiró abajo las ideas de Aristóteles acerca de la física, efectuando el trabajo que Newton resumió más tarde en sus tres leyes del movimiento. No obstante, los intelectuales europeos siguieron sin atreverse a romper con los durante tanto tiempo idolatrados griegos.

Luego, en 1687 publicó Newton sus Principia Mathematica, en latín (el libro científico más grande jamás escrito, según la mayoría de los científicos).

Allí presentó sus leyes del movimiento, su teoría de la gravitación y muchas otras cosas, utilizando las matemáticas en el estilo estrictamente griego y organizando todo de manera impecablemente elegante.

Quienes leyeron el libro tuvieron que admitir que al fin se hallaban ante una mente igual o superior a cualquiera de las de la Antigüedad, y que la visión del mundo que presentaba era hermosa, completa e infinitamente superior en racionalidad e inevitabilidad a todo lo que contenían los libros griegos.

Ese hombre y ese libro destruyeron la influencia paralizante de los antiguos y rompieron para siempre el complejo de inferioridad intelectual del hombre moderno.

Tras la muerte de Newton, Alexander Pope lo resumió todo en dos líneas: «La Naturaleza y sus leyes permanecían ocultas en la noche. Dijo Dios: ¡Sea Newton! Y todo fue luz.»

——— 000000000 ———

APORTACIONES DE ISAAC NEWTON: Sus aportaciones esenciales se produjeron en el terreno de la Física.

Sus primeras investigaciones giraron en torno a la óptica: explicando la composición de la luz blanca como mezcla de los colores del arco iris, formuló una teoría sobre la naturaleza corpuscular de la luz y diseñó en 1668 el primer telescopio de reflector, del tipo de los que se usan actualmente en la mayoría de los observatorios astronómicos; más tarde recogió su visión de esta materia en la obra Óptica (1703).

También trabajó en otras áreas, como la termodinámica y la acústica; pero su lugar en la historia de la ciencia se lo debe sobre todo a su refundación de la mecánica.

En su obra más importante, Principios Matemáticos de la Filosofía Natural (1687), formuló rigurosamente las tres leyes fundamentales del movimiento: la primera ley de Newton o ley de la inercia, según la cual todo cuerpo permanece en reposo o en movimiento rectilíneo uniforme si no actúa sobre él ninguna fuerza; la segunda o principio fundamental de la dinámica, según el cual la aceleración que experimenta un cuerpo es igual a la fuerza ejercida sobre él dividida por su masa; y la tercera, que explica que por cada fuerza o acción ejercida sobre un cuerpo existe una reacción igual en magnitud, pero de sentido contrario.

Preguntas curiosas: el científico mas grande newton