El Efecto fotoelectrico

Descubrimiento de Coulomb Charles Vida y Obra Cientifica-Descripcion

Descubrimiento de Coulomb Charles Vida y Obra Cientifica

Un joven científico hace en 1785 un descubrimiento asombroso: las fuerzas electrostáticas están regidas por la misma ley de la gravedad enunciada por Isaac Newton.

El ingeniero militar francés Charles Augustin Coulomb nacido en 1736, fue el descubridor de la ley que lleva su nombre, para lo cual había ideado en 1777 una ingeniosa balanza de torsión, que permitía medir las cargas eléctricas.

Además, descubrió la existencia de fuerzas magnéticas, al comprobar la acción del campo terrestre sobre una aguja imantada, y desarrolló las leyes que las rigen.

COULOMB, Charles Augustin de: (Angulema, 1736-París, 1806.) Físico francés. Fue ingeniero militar y superintendente de Aguas y Fuentes, pero en 1789 se retiró a las actividades científicas privadas.

Durante la Revolución fue miembro del comité de pesas y medidas que estudió la adopción del sistema métrico decimal.

En 1802 desempeñó el cargo de inspector de educación.

Entre las investigaciones de Coulomb destacan sus estudios de la fricción (el rozamiento) en la maquinaria, y la elasticidad y torsión de los materiales, que le sirvieron para inventar balanzas de torsión muy sensibles, utilizándolas en sus experimentos sobre la electricidad y el magnetis mo, que le dieron fama.

Biografia de Coulomb Vida y Obra Cientifica Su Descubrimiento
El físico francés Charles de Coulomb destacó por sus trabajos realizados en el campo de la electricidad. En 1785 confirmó experimentalmente la ley que lleva su nombre, y que permite calcular la fuerza entre las cargas eléctricas.

Partiendo de los descubrimientos de Joseph Priestley sóbrela electricidad, formuló la ley de las fuerzas electrostáticas (hoy llamada ley de Coulomb), que dice que dos cargas eléctricas del mismo signo (de signo contrario) se repelen (se atraen) con una fuerza directamente proporcional al producto de sus cargas e inversamente proporcional al cuadrado de la distancia que las separa.

También descubrió que en un conductor cargado la carga está situada en la superficie.

Estudiando el magnetismo, halló la ley de las fuerzas magnéticas (también llamada ley de Coulomb), que dice que dos polos magnéticos de la misma polaridad (de polaridad contraria, uno norte, el otro sur) se repelen (se atraen) con una fuerza directamente proporcional al producto de sus cargas magnéticas e inversamente proporcional al cuadrado de la distancia que los separa.

Coulomb fue nombrado en 1781 miembro de la Academia Francesa.

En su honor, la unidad de carga eléctrica ha recibido el nombre de culombio, que se define como la cantidad de carga transportada en un segundo por una corriente de un amperio.

Entre sus obras, destacan las siguientes: Teoría de las máquinas simples (1779) y Sobre la electricidad y el magnetismo.

OBRA CIENTIFICA: LA LEY DE COULOMB

Coulomb comprobó en 1785 que la fuerza eléctrica de atracción o rechazo respondía a los mismos principios mecánicos que las leyes de gravitación descubiertas por Newton y según las cuales la Tierra y todos los planetas y cuerpos celestes se atraen y mueven en el espacio.

Desarrolló entonces su famosa ley, que permitió en el siglo siguiente desarrollar la industria eléctrica.

En honor de Charles Augustin Coulomb, la unidad de medida de la electricidad fue llamada culombio.

Las fuerzas electrostáticas o magnéticas pueden ser positivas (+) o negativas (-), como se observa en las pilas.

Un imán posee una fuerza magnética positiva en un extremo o polo y una fuerza negativa en el otro.

Si se colocan dos imanes juntos, se comprueba que los polos opuestos se atraen y los polos iguales se repelen.

Acá se observan dos cargas electricas opuesta, que se atraen segun una fuerza F.

ley de coulomb sobre la atraccion de las cargas electricas
Ley de Coulomb sobre la atraccion o repulsión de las cargas electricas

La ley de Coulomb afirma que la fuerza con que se atraen o repelen dos cargas eléctricas determinadas es directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de la distancia que ¡as separa. El tiempo le dió la razón.

ANTECEDENTES DE LA EPOCA:

Entre las nuevas disciplinas físicas que se desarrollan a partir del siglo XVIII encontramos la electricidad, cuyas manifestaciones habían sido observadas por lo griegos.

Al frotar un trozo de ámbar (en griego elektron) se comprobaba que era capaz de atraer pequeños objetos. A esta fuerza misteriosa se la llamó eléctrica.

En 1600, Gilbert observó también las propiedades de la piedra imán, que se encuentra en la Naturaleza, y distinguió entre atracción eléctrica y magnética.

Ya en el siglo XVIII aparecen los primeros instrumentos para producir carga eléctrica, que serán utilizados por Benjamín Franklin para demostrar que el rayo es de naturaleza eléctrica.

En esta idea se basará su invención del pararrayos, tras observar la semejanza entre la chispa eléctrica y los rayos producidos en una tormenta y verificar que la propiedad de ser atraída por las puntas también se da en el rayo.

La cosmovisión newtoniana imperante en este siglo también dejará huella en las ideas de Franklin, quien introducirá el concepto de electricidad «positiva» y «negativa» para explicar la atracción y repulsión de los cuerpos electrizados.

Para entonces los intentos de esclarecer la naturaleza de la electricidad se habían convertido en una cuestión prioritaria.

Galvani y Volta investigaron los efectos de la misma sobre los seres vivos: observaron cómo una pata de rana se contraía al ser conectada a dos metales distintos, y la consideraron como un detector de la electricidad existente entre los dos metales.

Volta observó en sus experimentos que la electricidad puede producirse mediante la acción química de un metal disolviéndose en un ácido. Este sería el principio de la pila voltaica.

El proceso inverso, mediante el cual a partir de la electricidad se puede producir una acción química, se denominará electrólisis y su descubrimiento será fundamental para el desarrollo de la Química.

En 1800 Nicholson y Carlisle fueron los primeros en efectuar este proceso, al hacer pasar electricidad a través del agua mediante dos cables inmersos en ella, hallando así que el agua se descomponía en sus elementos, hidrógeno y oxígeno.

La síntesis química condujo al intento de crear compuestos en el laboratorio: Cavendish logrará la síntesis del agua, y en el siglo XIX se realizará la síntesis de los primeros compuestos orgánicos, como el benceno.

Fuente Consultada:
Grandes Cientificos de la Humanidad Tomo I – Diccionario Biografico de Espasa Manuel Alfonseca
El Jardín de Newton José Manuel Sánchez Ron.
Enciclopedia Electrónica ENCARTA de Microsoft

Enlace Externo: Ley de Coulomb

Biografía de Pauli Wolfgang Principio de Exclusión

BIOGRAFÍA DE PAULI, WOLFGANG
Físico austríaco-estadounidense

Wolfgang Pauli (1900-1958), físico estadounidense de origen austríaco, premiado con el Nobel y conocido por su definición del principio de exclusión en mecánica cuántica. Además su hipótesis, en 1931, de la existencia del neutrino, una partícula subátomica, constituyó una contribución fundamental al desarrollo de la teoría mesónica.

Fisico Pauli Wolfgang

Pauli formuló el principio de exclusión, que establece que dos electrones no pueden ocupar el mismo estado energético de forma simultánea en un átomo. Por este descubrimiento recibió, en 1945, el Premio Nobel de Física.

Se doctoró en 1921 en la Universidad de Munich y fue asistente en la Universidad de Gotinga. Continuó su formación en Copenhague, bajo la tutela de Niels Bohr. Trabajó inicialmente en la Universidad de Hamburgo y, luego, se mantuvo por espacio de veinticinco años como profesor de física teórica en la Escuela Politécnica Federal de Zurich.

Se le distingue como uno de los fundadores de la mecánica cuántica, junto con Heisenberg y Planck; adquirió gran prestigio por su principio de exclusión, enunciado en 1924, conocido también como principio de Pauli, según el cual dos partículas similares no pueden existir en el mismo estado, es decir, que ambas no pueden tener la misma posición y la misma velocidad, dentro de los límites fijados por el principio de incertidumbre de Heisenberg.

En otros términos, en un mismo átomo no pueden existir dos electrones con el mismo conjunto de números cuánticos –sabiendo que cada átomo queda descrito por completo una vez se han especificado sus cuatro números cuánticos– de donde resulta que al menos uno de ellos debe ser diferente. Mediante el Principio de Pauli se logró interpretar las propiedades químicas de los elementos cuando se agrupan ordenadamente por su número atómico creciente.

Pauli recibió el premio Nobel de física a la edad de 45 años, en 1945, «por el descubrimiento del principio de exclusión». Al año siguiente, recibió la nacionalidad norteamericana y trabajó a partir de ese momento en el Instituto de Estudios Avanzados de Princeton, regresando posteriormente a Zurich.

DESCRIPCIÓN DE LA UBICACIÓN DE LOS LOS ELECTRONES EN UN ÁTOMO:

El núcleo y la disposición de los electrones a su alrededor, son los componentes cruciales que dictan la forma como se comporta un elemento.

Si pudiésemos tomar millones de fotografías de los electrones que orbitan alrededor del núcleo de un átomo, éstos aparecerían cada vez en una posición ligeramente diferente. Las distintas posiciones forman series de hasta 7 anillos de nubes u «órbitas» alrededor del núcleo, donde las posibilidades de encontrar un electrón son altas. En los átomos más pequeños, hidrógeno y helio, existe sólo una pequeña órbita cercana al núcleo. Los átomos del helio tienen dos electrones y los del hidrógeno uno, por lo que la opción de hallar un electrón en un punto determinado de esta órbita es dos veces mayor en el átomo de helio que en el de hidrógeno.

Existe siempre un límite al número de electrones que cada órbita puede albergar. En la órbita interior hay espacio sólo para dos, por lo cual, si un átomo tiene más electrones, éstos se desplazan a una segunda órbita, más retirada del núcleo. Esta segunda órbita puede albergar hasta 8 electrones. La tercera también puede mantener 8 electrones, e incluso más -hasta 18-,si existe otra órbita. Sólo excepcionalmente la órbita externa presenta más de 8 electrones.

//historiaybiografias.com/archivos_varios5/atomo_pauli.jpg

Los átomos con 8 electrones en su órbita externa son muy estables y lentos para reaccionar con otros elementos, debido a que se requiere mucha energía para adicionar un electrón o para desplazarlo. Los átomos con un solo electrón en su órbita externa, como los del hidrógeno, sodio y potasio, son muy reactivos debido a que su electrón se remueve con facilidad.

de igual modo, los átomos a los que les falta uno de los 8 electrones son muy reactivos, pues aceptan con rapidez otro electrón en su órbita externa. El fluoruro (un átomo de flúor con un electrón obtenido de otro átomo) que encontramos en la crema dental protege los dientes al eliminar y remplazar un componente del esmalte dental que es afectado por los ácidos en los alimentos.

Puede Ampliar Este Tema Aquí

Fuente Consultada:
Historia Universal de la Civilización  Editorial Ramón Sopena Tomo II del Renacimiento a la Era Atómica

Biografía de Eddington Arthur Trabajos Cientificos

Biografía de Eddington Arthur  y Su Trabajo Científico

BIOGRAFÍA DE EDDINGTON, Sir ARTHUR STANLEY (1882-1944): Astrónomo y físico británico, que realizó un importante trabajo en el campo de la relatividad y de la astronomía. Eddington nació en Kendal, por entonces en Westmorland (actualmente Cumbria) y estudió en el Owens College (actualmente Universidad de Manchester) y en el Trinity College de la Universidad de Cambridge. Fue ayudante jefe en el Real observatorio de Greenwich desde 1906 a 1913, año en que fue catedrático de astronomía en Cambridge.

En la década de los años veinte, este astrofísico inglés demostró que el interior del Sol era mucho más caliente de lo que se había pensado hasta entonces. Supuso al astro como una enorme y extremadamente caliente esfera de gas, con características similares a las de los gases estudiados en la Tierra.

Eddigton Arthur Stanley

Arthur Eddihton: famoso físico del siglo XX, cuyo trabajo mas destacado fue sobre la evolución y la constitución de las estrellas. Su trabajo en astronomía quedó reflejado en su clásico libro La constitución interna de las estrellas, que se publicó en 1926.

Sometido a la acción de la gravedad, su materia tendría que estar atraída hacia el centro y, por tratarse solamente de gas, no tardaría en colapsarse en un cuerpo mucho más pequeño. Ya que el Sol no entra en colapso e inclusive conserva medidas superiores a las establecidas para esa gravedad, debería existir alguna fuerza que impulse la expansión de la sustancia solar y resista a la tendencia de contracción.

El único fenómeno que podría explicar esta situación, según Eddington, sería el calor, ya que si se aumenta la temperatura, los gases se expanden y aumentan de volumen. Por lo tanto, el Sol permanece en un estado de equilibrio, con un calor interior tal que tiende a expandirlo, pero con una fuerza gravitatoria que lo induce a contraerse.

Concluyó que cuanto mayor es la masa de una estrella, mayor es la cantidad de calor que debe producir para no entrar en colapso, y que la cantidad de calor debe crecer con mayor rapidez que la masa.

Eddington se opuso a las teorías de su discípulo, Chandrasekhar, sobre la posibilidad de que existiera una estrella cuya masa alcanzara cierto límite y dejara de contraerse hasta llegar a un estado final como las estrellas enanas blancas.

Sus principales obras son: Espacio, Tiempo y Gravitación; Estrellas y Átomos; La Naturaleza del Mundo Físico; El Universo en Expansión y Nuevos Senderos de la Ciencia.

Fuente Consultada:
Historia Universal de la Civilización  Editorial Ramón Sopena Tomo II del Renacimiento a la Era Atómica

Biografía de Doppler Christian Resumen Descripcion del Efecto

Biografía de Doppler Christian
Breve Explicación del Efecto Doppler

Christian Doppler (1803-1853), físico y matemático austriaco, nacido en Salzburgo. Estudió en dicha ciudad y posteriormente en Viena. Fue profesor en el Instituto técnico de Praga (Checoslovaquia) y en el Instituto politécnico de Viena, y ocupó el cargo de director del Instituto de Física de la Universidad de Viena en 1850. Describió el fenómeno físico que se conoce hoy como efecto Doppler en su artículo monográfico sobre los colores de la luz de las estrellas dobles, Acerca de la luz coloreada de las estrellas dobles (1842).

Doppler cientifico

Recibió su primera educación en Salzburgo y Viena, en donde llegó a ser profesor de física experimental. En 1850, fue nombrado director del Instituto de Física.

Doppler se preguntó por qué razón el sonido se percibía  de modo distinto, según la fuente se alejara o se acercara al receptor; en su época ya se sabía que el sonido está compuesto por una serie de ondas que se desplazaban en un medio determinado, y el físico encontró que, por ejemplo, cuando una locomotora se acercaba al punto donde estaba situado un observador, cada onda sónica sucesiva se captaba casi superpuesta a la anterior (un sonido agudo), de modo que el oído la captaba con frecuencia creciente; al alejarse, por el contrario, la frecuencia se espaciaba cada vez más (un sonido grave).

Doppler había relacionado matemáticamente la velocidad y la tonalidad del sonido y, para probar su teoría, consiguió que una locomotora arrastrase un vagón cargado con trompetistas hacia el punto de observación y luego se alejara de él, a velocidades diferentes.

En el punto de observación ubicó un grupo de músicos de fino oído, encargados de registrar los cambios que se producían en el diapasón a medida que el tren iba o venía. La medición de dichos cambios en la tonalidad, en realidad en la intensidad aparente del ruido (la relación entre frecuencia y velocidad), es lo que hoy se conoce como efecto Doppler, divulgado por primera vez en 1842.

Doppler también dejó planteada la analogía entre el sonido que emite una fuente móvil y la luz que proviene de una estrella en movimiento, ya que la luz también se transmite por medio de ondas, si bien mucho más finas que las sónicas. El físico francés Armand Fizeau (1819-1896), hizo notar que el llamado efecto Doppler tendría que funcionar en el desplazamiento de todo tipo de ondas en movimiento, incluyendo las de la luz.

Gracias a los experimentos de Doppler sabemos que si una estrella se mantuviera estática con respecto a la Tierra, las líneas oscuras de su espectro luminoso deberían permanecer en un mismo sitio, pero que si se está alejando de nosotros, la luz que emite va alargando su longitud de onda (algo equivalente al sonido grave en el experimento del tren) y las líneas oscuras se desplazarían hacia el extremo rojo del espectro.

Entre más grande sea ese desplazamiento, mayor es la rapidez con que la estrella se aleja. Por el contrario, si se estuviera acercando, la luz emitiría ondas cada vez más cortas (el tono agudo) y las líneas del espectro estarían acercándose al violeta.

DESCRIPCIÓN DEL EFECTO DOPPLER:

El efecto Doppler es el cambio en la frecuencia percibida de cualquier movimiento ondulatorio cuando el emisor, o foco de ondas, y el receptor, u observador, se desplazan uno respecto a otro.

efecto doppler

El móvil (auto) de la imagen superior se desplaza hacia la derecha. Cuando se acerca al niño se observa que la onda del sonido se «comprime», la longitud de onda se corta y la frecuencia es alta, es decir un sonido agudo. A su vez para el caso del niño de la izquierda la situación es inversa, es decir la frecuencia del sonido será mas baja y el sonido que reciba sera grave.

//historiaybiografias.com/archivos_varios5/efecto_dopler1.jpg

Explicación del Foco en reposo y observador en movimiento: La separación entre dos frentes de onda permanece constante en todo momento. Aunque la velocidad de las ondas en el medio v también es constante, la velocidad relativa vrel. percibida por el observador que viaja a una velocidad vR depende de si este se aleja o se acerca al foco. Cuando el foco se mueve y el observador está detenido el caso es el mismo. La velocidad del sonido en el aire es de 340 m/s.

Fuente Consultada:
Historia Universal de la Civilización  Editorial Ramón Sopena Tomo II del Renacimiento a la Era Atómica

Naturaleza Ondulatoria de la Materia- Resumen Descriptivo

Naturaleza Ondulatoria de la Materia

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA:

Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz.

En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas.

Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular.

Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico.

Este nuevo descubrimiento planteó a los físicos un serio dilema.

El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie.

En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias.

Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula.

Luis Víctor de Broglie nació en Dieppe (Francia), en 1892.

Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física.

En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel.

Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó.

Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda.

Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta.

El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones

En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados.

Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas.

Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda.

Mentes Brillantes del Mundo Grandes Mentes del Arte Creadores Musica

El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía.

Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz.

¿Pero qué hay de las partículas de materia?

la pregunta empezó a tener respuesta cuando Louis de Broglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser conglomerados localizados porque no éramos capaces de verlas más de cerca.

Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones de Einstein, podía representar el movimiento de la materia :omo ondas.

Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones.

Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Física que había estimulado su imaginación cuando era estudiante en la Universidad de Viena.

Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber sido por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Enlace Externo: Naturaleza de la Materia

Energía Mareomotriz: Produccion de Electricidad Con Las Mareas

Energía Mareomotriz Producir Electricidad Con Las Mareas

USINAS ELECTRICAS QUE USAN LA FUERZAS DE LAS MAREAS

Hasta ahora, el hombre ha hecho muy poco para aprovechar la energía de los mares y utilizarla convenientemente. La central mareomotriz francesa de la Ranee, fue la primera en su estilo en el mundo, que produzcía electricidad a partir del regular flujo y reflujo de las mareas.

Ocurre que, en este lugar particular de la costa francesa, la diferencia entre pleamar y bajamar es lo suficientemente grande para poder hacer funcionar una planta eficaz. En realidad, hay pocos sitios en el globo terrestre donde el nivel del agua sube y baja lo suficiente como para que valga la pena llevar a cabo la operación.

El desnivel entre la pleamar y la bajamar en el estuario de la Rance tiene un valor medio de 11,4 metros y, por otra parte, la electricidad producida puede consumirse inmediatamente en la región. Por estas circunstancias, el proyecto resulta práctico. Dos veces en cada día lunar (24 horas y 50 minutos), una «ola astronómica» llega del Atlántico y penetra en el Canal de la Mancha.  Su potencia bruta se ha estimado en  56 millones de cabullos vapor.

Aproximadamente, una mitad de esta potencia se pierde en el Canal, al romper las olas y al rozar con el fondo del mar y a lo largo de la costa. Lo que los ingenieros intentan aprovechar con sus centrales mareomotrices es una parte de esta energía perdida.

El principio de la operación, en su conjunto, es sencillo. El hombre lo ha utilizado desde la antigüedad, con ruedas de molino impulsadas por la marea. Un canal, con una compuerta abierta cuando sube la marea, se llenará de agua.

Ésta podrá ser retenida cerrando la compuerta y, posteriormente, se utilizará para producir trabajo o para hacer funcionar algún tipo de planta generadora, cuando la marea baje.

Desgraciadamente, esta teoría tan sencilla fallará en la práctica, porque esto significa que sólo se puede producir electricidad cuando la marea está bajando, y una generación momentánea de electricidad en la madrugada no es útil a nadie. Se necesita una producción regular, para suministrar energía en el tiempo preciso, y esto exige una organización mucho más compleja.

En realidad, pura poder armonizar la producción de electricidad con la demanda se necesita una calculadora que dirija las operaciones de abrir y cerrar las compuertas.

VEINTICUATRO CENTRALES ELÉCTRICAS EN  UNA
La central de la Rance organiza su producción de electricidad por medio de veinticuatro elementos, que, para el espectador, aparecen como veinticuatro canales que corren a lo largo de una gran presa, construida a través del extremo del estuario de la Rance.

El conjunto tiene una longitud total de 750 m, y consta de Oeste a Este de:
  • Una esclusa que permite la navegación entre la parte embalsada y la parte de mar de la bahía, de 65 metros de largo por 13 metros de ancho.
  • Una planta mareomotriz de 390 metros de largo por 33 de ancho, formada por 24 turbinas «tipo bulbo», de 10 MW cada una.
  • Un dique de entronque de 163 metros de largo que completa el cierre del estuario entre la planta y el islote de Chalibert.
  • Una pesa movil de 115 metros de largo, provista de 6 válvulas de tipo «wagon», capaces de funcionar a una diferencia de altura de la columna de agua de 10 metros; siendo su ancho de 15 metros cada una.
  • Una carretera de doble sentido que une Dinard con St-Malo, la cual se ve sometida al paso de 26.000 coches diarios, siendo 60.000 en verano.

Represa Mareomotriz en Francia Dos veces al día pasan 184 millones de metros cúbicos a través de la presa, cayendo de una altura de 11,4 metros y proporcionando energía. Se eligen los momentos del día en que se necesita más electricidad, las horas de máximo consumo.

Lo energía básica de una central eléctrica mareomotriz depende de dos factores: la superficie del canal en el que se retiene el agua y la diferencia entre la pleamar y la bajamar. Por tanto, conviene elegir un lugar en el que este valor sea el más grande posible. El estuario de la Ronce tiene una superficie de 22 kilómetros cuadrados y el nivel del agua varía 11,4 metros, como valor medio, en cada marea, lo que significa una cantidad de agua de 184 millones de metros cúbicos que entra y sale dos veces al día. El Mediterráneo no podría utilizarse nunca para producir energía eléctrica, ya que la marea sólo hace variar el nivel del mar en pocos decímetros.

Cuando la marea sube, el agua se precipita dentro de los canales, impulsando las turbinas a su paso. Así se produce mucha menos energía que cuando las presas están vaciándose; pero, a pesar de todo, todavía resulta conveniente.

Al final de la marea se utiliza energía de la red ordinaria, para que la turbina siga girando y llene la presa por encima del nivel exterior durante esta operación. Este aumento extra de nivel es un métodopara obtener algo a partir de nada.

Cuesta muy poco tomar electricidad del sistema para hacer subir, artificialmente, el nivel del agua, digamos 50 centímetros más. Pero tres horas después, cuando el nivel del agua en el exterior haya bajado unos 6 metros, esta misma agua tendrá una caída de 6 metros y, en la práctica, podrá proporcionar una energía 12 veces mayor que la empleada para subirla a su posición inicial.

El tiempo en que se almacena el agua a este nivel artificial depende de la demanda de electricidad. En el momento oportuno, el agua puede salir hacia el mar y proporcionar así la electricidad a la red. La turbina que convierte el flujo de agua en   una   corriente   eléctrica   utilizable   está sumergida y se encuentra en el paso de la corriente de agua. Está rodeada de agua por todas partes y posee una gran hélice, que es impulsada por la corriente.

La hélice es de láminas ajustables, que pueden orientarse de modo que se adapte a las condiciones imperantes. Se puede llegar a la turbina sumergida por medio de un túnel con una escalera.

Cuando una presa se ha vaciado y alcanzó el nivel de la marea que la rodea, se toma otra vez un poco de energía de la red para producir un sobrevaciado. Entonces, el ciclo completo puede empezar nuevamente.

Cada pequeña central funciona independientemente de las demás, para responder a las distintas necesidades de corriente, según las diferentes mareas. El número de ciclos diversos que se pueden utilizar en el curso de un mes es variable, permitiendo, así, una adaptación a las más diversas demandas de electricidad y el mejor aprovechamiento de toda clase de mareas.

Es necesario tener en cuenta el hecho de que las mareas se retrasan 50 minutos cada día y no tienen siempre la misma amplitud. Se calcula que la producción anual de la central será de unos 540 millones de kilovatios-hora por año, producción muy pequeña para una central eléctrica. Pero el combustible no faltará nunca y la planta será una experiencia útil para decidir si se puede emplear el mismo principio en otro lugar del globo terráqueo.

esquema represa mareomotriz

La turbina, que está sumergida y se encuentra en el paso de la corriente de agua, gira,
proporcionando   una   pequeña   cantidad   de   electricidad.

Se toma de la red una pequeña cantidad de electricidad,
para elevar artificialmente el nivel del agua  en el estuario.

Represa mareomotriz

A medida que se vacía el embalse, la turbina produce una
gran cantidad de electricidad en el sistema.

Cuando el embalse está vacio, se toma un poco do electricidad para hacer
girar la turbina y vaciar todavía más la presa.

FUENTES DE ENERGÍA ELÉCTRICA
Casi toda la energía eléctrica producida actualmente prosede de combustible! extraídos de la Tierra, que pueden encontrarse en una u otra forma. Estos combustibles —carbón, petróleo y uranio— se extraen, retiran y trasporté?; antes de utilizarlos para trasformar el agua en el vapor que hará funcionar los generadores eléctricos. Además de estas fuentes de energía, existen otras —ríos de corriente rápida y el calor procedente del Sol.

En todos los métodos convencionales, la energía encerrada en el combustible se convierte, primero, en energía calorífica. En el carbón y en el petróleo, lo que se convierte es energía química; en el caso del uranio se utiliza la energía desprendida en la fisión controlada de los núcleos de uranio.

En la instalación de la Ranee, la energía mecánica de la marea se convertirá directamente en energía eléctrica.

El procedimiento es similar, en principio, a las centrales hidroeléctricas que funcionan en todo el mundo, mediante la energía mecánica que libera el agua al caer de un nivel a otro. Esta energía se convierte directamente en electricidad Este proyecto de la Ranee también se parece mucho a otros de almacenamiento por bombeo, ya en servicio en Luxemburgo (en Vianden) y en el país de Gales (en Ffestinlog).

En ambos proyectos, como en el de la Ranee, sólo se pers fluir el agua a través de los equipos generadores cuando se requiere, es decir, cuando hay una demanda en el circuito eléctrico. En los proyectos de almacenamiento por bombeo, el agua se hace subir a una colina desde una reserva hasta otra más elevada, en los momentos del día en que no hay una gran demanda de electricidad. Se guarda hasta que la demanda alcanza un máximo y entonces se libera, dejándosela fluir a través de los equipos generadores, para producir un suplemento de energía eléctrica, muy necesario.

Otro ejemplo de conversión de una energía natural es la utilización de la energía solar. Una gran cantidad de energía radiante procedente del Sol alcanza la superficie de la Tierra durante el día y puede utilizarse para trasformar agua en vapor. Este vapor puede hacer funcionar turbinas generadoras. Tales proyectos se han puesto en marcha en Rusia a partir de la década del 60´.

Fuente Consultada
Enciclopedia TECNIRAMA Fasc. N° 118 Electricidad Producida Por Las Mareas

Naturaleza de la Luz Onda o Partícula- Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

La Naturaleza de la Luz

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar «qué pasaría si …».

¿ … si alguien inventara algo para bloquear nuestra gravedad?.

¿ … si la luz fuera a la vez una partícula y una onda?.

¿ … si hubiera un mundo de antimateria?.

¿ … si el Universo que ahora parece expandirse, se contrajera en el futuro?

El investigador científico plantea la pregunta fundamental:

¿Qué clase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo.

Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el «gran océano de la verdad estaba sin ser descubierto» delante de él.

El científico siempre trabaja en las orillas del «gran océano de la verdad», esforzándose en descubrirle cada vez más.

Biografia de Isaac Newton Vida y Obra Cientifica del Fisico ...

A principios del siglo XX, algunos de los que se preguntaba:

«qué pasaría si . . .» expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra.

Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros:

¿Es posible que la luz sea a la vez una onda y una partícula?.

Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años.

Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa.

El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él.

Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas.

Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

• PRIMERAS INTERPRETACIONES:

El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos.

Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz.

Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano.

Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos.

Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos.

Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban.

En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas.

Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

Científicos del Espacio

Astronomos del Renacimiento Y Sus Descubrimientos – BIOGRAFÍAS e ...

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa.

La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos.

Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase.

Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Robert Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke
Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas.

Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras.

Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas.

Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

• TEORÍA ONDULATORIA:

Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

Christian Huygens
HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso.

No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz.

No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos.

No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

Mentes Brillantes del Mundo Grandes Mentes del Arte Creadores ...

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es:

Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias.

Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo:

Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t?.

De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas.

En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él.

Así pues, los frentes de onda planos se propagan como planos y con una velocidad c.

Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz
Frente de Onda de Luz
Primera Ley de la Óptica
Primera Ley de la Óptica

«En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r.

Ambos rayos siempre se encuentran contenidos en un mismo plano.»

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente.

Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz
Difracción de la luz
Segunda Ley de la Óptica
Segunda Ley de la Óptica

«El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano»

NACE LA TEORÍA CORPUSCULAR:

La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado «Óptica», éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma.

De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia.

Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno.

Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular.

Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras.

Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios.

Huygens Chistiaan Inventor del Reloj a Pendulo Biografia y Obra ...

Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio.

El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse.

Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio «vacío».

Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción.

Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero.

El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo peculiar.

De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria.

La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual.

Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible.

Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula.

Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

Biografia de Einstein Albert Obra Cientifica y Vida – BIOGRAFÍAS e ...

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo.

De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol.

Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía.

Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento.

Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia.

Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él.

Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz.

Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII.

La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)

Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones.

En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular.

En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis
Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido.

Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria).

Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil.

Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre.

Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente.

Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia.

Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Enlace Externo: Huygens y la Naturaleza de la Luz

Funcionamiento de Olla a Presión:Historia de Papin Denis

Funcionamiento de Olla a Presión
Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, «inventor del reloj de péndulo», como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la «bomba al vacío», al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el «digestor», o «baño maría de rosca», que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: «Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida», y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Concepto de Calor Latente La Investigación de Black Joseph

CONCEPTO DE CALOR LATENTE

CALOR LATENTE:  Cuando calentamos una substancia esperamos que su temperatura ascienda. Un termómetro colocado en una olla con agua sobre un calentador registrará un aumento gradual de la temperatura hasta llegar a los 100°C, en que el agua entra en ebullición. No hay más cambios de temperatura hasta que toda el agua se evapora, aunque el calentador siga suministrando calor. Este calor, que no se pone en evidencia por el aumento de temperatura, se denomina calor latente de vaporización del agua. Latente quiere decir «oculto».

Todo el calor que pasa al agua hirviendo se emplea en proveerla de la energía necesaria para transformarse en vapor. Las moléculas de vapor están mucho más alejadas entre sí que las del agua, y para separarlas es necesaria una cantidad de energía, que venza las fuerzas de atracción molecular.

Del mismo modo, todo el calor entregado al hielo se consume en transformarlo en agua, de modo que no queda calor disponible para elevar su temperatura.

Cada sustancia requiere calor «latente» para permitirle cambiar de estado sólido a estado líquido, o de líquido a gas.

Si el cambio de estado es de gas a líquido o de líquido a sólido, el calor «latente» es liberado.

Hablando en forma estricta, el calor latente se refiere a un gramo de substancia. Así el calor latente de vaporización del agua (calor latente del vapor) es la cantidad de calor necesaria para convertir un gramo de agua en vapor, sin cambio de temperatura.

Su valor es de casi 540 calorías. El calor latente de fusión del hielo es la cantidad de calor necesaria para convertir un gramo de hielo en agua, sin cambio de temperatura, y vale 80 calorías.

La nevera o heladera se basa en el calor latente de algún gas fácilmente licuable, como el amoníaco. Se comprime el gas y se lo convierte en un líquido. En este proceso el gas entrega su calor latente. El líquido se envía por tubos al gabinete.

Como en estos tubos la presión es menor, el líquido se gasifica nuevamente, tomando el calor necesario para este cambio de estado del gabinete y su contenido, y así hace bajar la temperatura del mismo.

La nafta volcada, sobre la piel da sensación de frío, porque se evapora rápidamente y absorbe calor latente.

Del mismo modo, la evaporación del sudor en los climas cálidos es el procedimiento que emplea la naturaleza para que mantengamos frescos nuestros cuerpos. Por otra parte, el calor latente liberado cuando se forma hielo en los grandes lagos de Estados Unidos es de gran utilidad para los fruticultores de la zona, porque evita las heladas.

//historiaybiografias.com/linea_divisoria2.jpg

PRIMERAS INVESTIGACIONES EN CALORIMETRÍA

Una de las formas de energía más familiar para nosotros es el calor. Diariamente hacemos uso de él para calentar nuestra casa, para preparar la comida, etc. La energía calorífica es debida al movimiento de las moléculas y de los átomos. La experiencia nos enseña que la energía de un cuerpo puede transformarse en calor, siendo también posible que la energía térmica se convierta en trabajo, como sucede en los motores de explosión o en las máquinas térmicas. Por todo ello decimos que el calor es una forma de energía.

DIFERENCIA ENTRE CALOR Y TEMPERATURA: Actualmente, está muy bien determinada la diferencia entre calor y temperatura, a pesar de que algunos estudiantes puedan confundir estos dos conceptos. Calor es la energia necesaria para calentar un cuerpo y temperatura es una medida de su grado de calor. Cuanto mas energía entreguemos mas temperatura tendrá el cuerpo.

Para pensar este tema, imaginemos que debemos calentar 1 litro de agua de 10°C a 20°C, es decir , elevarla 10°C mas. Para lograrlo debemos entregar energía a esa masa de agua, por ejemplo colocarla sobre la hornalla de una cocina. Observaremos que a medida que pasa el tiempo el agua se pone mas caliente, por lo que podemos concluir que a medida que entregamos energía el agua aumenta su temperatura. Vemos que hay dos conceptos definidos por un lado la cantidad de energía o calor entregado y por otro la medida de su temperatura.

Si por ejemplo ahora tenemos que calentar 2 litros de agua de 10°C a 20°C, entonces necesitaremos el doble de energia entregada, para lograr la misma temperatura.

Para medir la energia entregada en forma de calor, se define la caloría que es la cantidad de calor necesaria para calentar de 14°C a 15 °C un gramo de agua. La unidad así definida corresponde a una cantidad de calor muy pequeña, por lo que, generalmente, en la práctica se utiliza la kilocaloría, que corresponde a 1.000 calorías.

Se usa por definción de  14 a 15°C solo como una medida de referencia, en realidad lo que
objetivamente se quiere indicar, es que el aumento sea de 1°C.

Para medir temperaturas utilizamos un termómetro con diversas escalas, pero la mas popular es grados centígrados o Celsius, creador de esta escala, que comienza a O° cuando el hielo se congela y finaliza en 100°C cuando el agua entra en ebullición.

La temperatura (la intensidad de calor) puede medirse fácilmente usando un termómetro.  Por el contrario, para la medida del calor (cantidad de energía entregada para calentar la materia) se usa la caloría.

HISTORIA: Hace unos 200 años, Joseph Black llevó a cabo una serie de experimentos muy importantes sobre la medida del calor y las relaciones entre el calor y la temperatura.

Joseph Black fisico

Demostró que el hielo en fusión y el agua hirviendo, que produce vapor, absorben grandes cantidades de calor, a pesar de que no hay cambios de temperatura. Introdujo el concepto de calor latente, con el que designó el calor necesario para producir esos cambios de estado.

grafica calor latente

Observe por ejemplo que cuando la temperatura llega a B, por mas que se sigua agregando calor, la temperatura
permanece constante hasta que no haya mas sustancia sólida. Lo mismo ocurre para que la sustancia
cambie de líquida a gaseosa.

La energía necesaria para que una sustancia cambie de estado es: Q = m. L
Donde m es la masa de la sustancia considerada y L es una propiedad característica de cada sustancia, llamada calor latente. El calor latente se mide en Joule/kg en unidades del SI.

Black también descubrió que se necesitan distintas cantidades de calor para producir las mismas elevaciones de temperatura en masas iguales de sustancias diferentes. Por ejemplo, para aumentar la temperatura del agua de 15° a 25° hace falta aplicar 1,7 veces más calor que para producir el mismo cambio de temperatura en una masa igual de alcohol.

Para explicar esta variación entre las diferentes sustancias, Black introdujo la idea de calor específico. Al realizar este trabajo, sentó las bases de la medida del calor —la calorimetría—, que sigue teniendo vigencia aún. Durante los 100 años anteriores, o más, los avances de la química habían estado obstaculizados por la teoría del flogisto. Sin embargo, como Black no aceptaba las teorías que no estuviesen apoyadas por pruebas experimentales, hizo varias aportaciones valiosas a la ciencia química.

calor latente

Black definió el «calor latente» como la cantidad de calor para cambiar de estado una sustancia

Hasta mediados del siglo XVIII, se sabía muy poco acerca de los gases y, de hecho, muchas personas aseguraban que sólo existía un gas (el aire). Un siglo antes (en 1640, para precisar más), van Helmont había descubierto el gas que hoy llamamos anhídrido carbónico; pero, a causa del incremento de la teoría del flogisto, no se llegó a comprender la importancia de este hallazgo.

Black redescubrió el anhídrido carbónico en 1754, haciendo experimentos con dos álcalis débiles: los carbonatas de magnesio y de calcio. Comprobó que cuando estas sustancias se calientan, cada una de ellas produce un álcali más fuerte, liberando, al mismo tiempo, aire fijo (o sea, el anhídrido carbónico). El peso del álcali fuerte es menor que el del álcali débil del que procede.

Joseph Black nació en 1728, en Burdeos (Francia), de padres que descendían de escoceses. Después de pasar seis años en la escuela en Belfast, en 1746, ingresó a la Universidad de Glasgow, para estudiar química y medicina. En 1756, llegó a ser profesor de anatomía y de química en Glasgow.

Al cabo de 10 años pasó a la cátedra de medicina y química de la Universidad de Edimburgo. Black era muy popular entre los estudiantes porque preparaba concienzudamente los cursos y sus clases estaban ilustradas con muchos experimentos.

Al mismo tiempo que hacía notables aportaciones a la química y a la física, encontró tiempo suficiente para ejercer la medicina. Murió apaciblemente, todavía ocupando su cátedra, a la edad de 71 años.

Calor especifico

También definió el calor especifico, para tener en cuenta las diferentes cantidades de calor necesarias para producir un mismo aumento de temperatura en masas iguales de distintas sustancias.

No todos los materiales cambian su temperatura con la misma facilidad, ya que las partículas que los forman y las uniones entre ellas son diferentes. El calor específico Informa sobre la mayor o menor facilidad de las sustancias para aumentar su temperatura. El calor específico de una sustancia, ce, es la cantidad de calor necesaria para elevar un grado la temperatura de un kilogramo de dicha sustancia.

Algunos valores de calor específico expresado en: (Joule/Kg. °K)

Agua    4.180
Alcohol etílico    2.400
Hielo    2.090
Vapor de agua    1.920
Aire    1.000
Aceite    1.670
Aluminio    878
Vidrio    812
Arena    800
Hierro    460
Cobre    375
Mercurio    140
Plomo    125

Fuente Consultada:
Enciclopedia TECNIRAMA de la Ciencia y la Tecnología Fasc. N°112 Sabio Ilustre Joseph Black
Enciclopedia del Estudiante Tomo N°7 Física y Química

Feynman Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Biografia de John Nash-Matematico Premio Nobel Por Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

La verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

John Forbes Nash: Matemático, Premio Nobel

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía.

En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica.

Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana.

Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños.

Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio.

Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado.

Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal.

Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937).

Entró en el Bluefield College en 1941.

Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química.

Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química.

Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan.

Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel.

En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares.

Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales.

Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953.

A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956.

Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales.

Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él.

Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo.

El padre de Alicia era médico en un hopital federal en Maryland.

En el verano de 1955 John Nash y Alicia salían juntos.

En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada.

Alicia se divorció de él más adelante, pero siempre le ayudó mucho.

En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político.

Creía que era perseguido por criptocomunistas.

En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey.

Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…)

Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente.

Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse.

En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación.

Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

Temas Relacionados

• Matemáticos Geniales de la Historia
• Grandes Matematicos Griegos y sus Aportes
• Famosos Matematicos de la Historia Wiles Teorema de Fermat
• Problemas Simples Para Aprender Conceptos Prácticos Matematicos
• Biografia de Gauss Carl-Vida y Obra Cientifica

Enlace Externo:Qué le deben las matemáticas a John Nash?

Biografia de Max Planck: Científico Creador de la Teoría Cuántica

Biografía de Max Planck
Científico Creador de la Teoría Cuántica

Max Planck (1858-1947) es el autor de la célebre teoría de los quanta o quantos. Planck admitió que la energía está formada por corpúsculos, llamados quanta, del mismo modo que la materia está formada de átomos.

La energía W contenida en cada átomo quantum es, por otra parte, proporcional a su frecuencia N, de donde estableció la fórmula w = h.N, donde h designa la constante de Planck.

La obra de Planck es tan fundamental para el porvenir de la física moderna como, si se nos permite la comparación, lo fue la de Newton.

La personalidad de Max Planck domina además la totalidad de la ciencia moderna. Su larga vida se extiende desde mitades del XIX hasta mediados de nuestro siglo.

Físico y pensador, interesado por múltiples problemas, según Einstein era «un hombre a quien le fue dado dar al mundo una gran idea creadora» que, completando el juicio de dicho autor contenido en Concepciones científicas, morales y sociales, «devino básica en toda la búsqueda de la física del siglo XIX».

Max Planck Cientifico Teoria Cuantica

PLANCK, MAX (1858-1947)
Físico alemán, realizó estudios en las universidades de Berlín y Munich.

Obtuvo el doctorado con una tesis sobre el principio de la termodinámica, en 1879. A partir de 1885, fue profesor en Kiel y de 1889, en Berlín.

Se dedicó al estudio de la física teórica y, en particular, ab problema de la termodinámica.

https://historiaybiografias.com/linea_divisoria1.jpg

BREVE FICHA BIOGRAFICA DEL FISICO:

Planckl Premio Nobel Fisica Por El Efecto Fotoeléctrico

•  Nació el 23 de abril de 1858, en Kiel (Alemania).

• A los nueve años se trasladó junto con su familia a Munich (Alemania), donde recibió educación primaria.

• A los diecisiete años inició los estudios de Física en la Universidad de Munich.

• En 1879, luego de especializarse durante un año en Berlín (Alemania), retornó a Munich y se doctoró en Física y Matemática.

• En 1885 fue nombrado profesor de Física en la Universidad de Kiel.

• Desde 1899 hasta 1928 ocupó el mismo cargo en la Universidad de Berlín.

• En 1900 expuso en la Sociedad Física de Berlín la teoría que le dio fama universal y formula que la energía se radia en unidades pequeñas y separadas, denominadas cuantos. Más tarde, avanzó aun más en el estudio de los cuantos.

Premios y honores

• Entre 1912 y 1938 fue secretario de las secciones de Física y Matemática de la Academia Prusiana de Ciencias.

• En 1918 recibió el premio Nobel de Física por sus trabajos.

• En 1930 se convirtió en presidente de la Sociedad Kaiser Guillermo para el Progreso de la Ciencia, la principal asociación de científicos alemanes de Berlín. En su honor, después de la Segunda Guerra Mundial, dicho centro cambió su nombre por el de Instituto Max Planck.

• Murió el 4 de octubre de 1947, en Gotinga (Alemania).

Antes de que Max Planck descubriera que el átomo absorbía y desprendía energía en pequeñas partículas o cuantos, se creía que aquel radiaba energía de forma continua y uniforme.

Los descubrimientos del físico alemán permitieron el nacimiento de un campo nuevo de la física, conocido como mecánica cuántica, y proporcionaron los cimientos para la investigación en otros de la energía atómica.

https://historiaybiografias.com/linea_divisoria1.jpg

BIOGRAFÍA DE Max Planck (1858-1947)

Max Planck nació en Kiel, la ciudad alemana con puerto en el mar Báltico, el 23 de abril de 1858.

Fue el sexto hijo de una familia acomodada, de la alta burguesía de entonces, en la que abundaban los clérigos y juristas.

El padre de Planck, Wilhelm, había sido profesor de derecho en la universidad de Munich y por estas fechas ocupaba la misma plaza en la de Kiel.

Tuvo, pues, todas las ventajas que proporciona una cuna sin preocupaciones económicas y por añadidura cultivada.

Desde los estudios primarios Max Planck sintió una decidida inclinación por la música, inclinación que en principio compartió con la filología.

Este hecho es muy curioso, a tan corta edad, y evidentemente demuestra que estaba sumido en un ambiente intelectual.

Como veremos, esta temprana inclinación pronto quedó suplantada por el decidido propósito de estudiar física.

Pero la música constituyó una de sus pasiones.

Es más, durante la época de estudiante llegó a ser director de una orquesta juvenil, de unos coros, que alternaba con conciertos de piano; sus biógrafos —Max von Laue, Hart, Hartmann, George, entre otros— señalan que sentía una pasión por los románticos alemanes, especialmente por Schubert, Schumann y Brahms.

La carrera universitaria de Max Planck fue rutilante.

Es uno de los casos sin duda más prodigiosos de la historia de la Ciencia contemporánea.

Graduado como doctor a los veintiún años, inmediatamente pasó a ser profesor adjunto de la universidad de Munich, digamos de paso donde había efectuado los estudios superiores, y a contiuación de la de Kiel.

El trabajo desplegado por Max Planck fue enorme, tanto en el dominio de la investigación como en el de la docencia.

Pero biográficamente no existen datos de interés, como en la mayoría de estos hombres, cuya vida es la inmensa aventura de un silencio.

En Kiel llevó a cabo las teorías que revolucionarían el campo de las ciencias físicas, y por ellas le fue concedido el Premio Nobel en 1919.

Nada cambió en su vida tras la concesión del Nobel. Siguió viviendo en Kiel hasta que, al producirse la muerte del gran físico Kirchhoff, se trasladó a Berlín para sucederle en su cátedra de física teórica.

Allí permaneció hasta el año 1926, fecha en la que cumplidos sesenta y ocho años decidió solicitar la jubilación universitaria; aunque dicha inactividad la compensó al suceder a Harnack, en 1930, en la dirección del «Institut Kaiser-Wilhelm».

Planck entró a estudiar física en la Universidad de Munich pero no congenió con su profesor, Philipp von Jolly Von Jolly le dijo que no había en física nada nuevo que descubrir.

Descontento con la universidad, decidió trasladarse a la Universidad de Berlín, donde enseñaban los célebres físicos Hermann von Helmholtz y Gustav Kirchhoff.

Como Einstein años después, Planck se interesó en temas que no se enseñaban en los cursos; estudió el trabajo de Rudolf Clausius sobre termodinámica en los artículos originales.

Luego de graduarse, Planckescribió una tesis sobre la segunda ley de la termodinámica y la presentó a la Universidad de Munich para obtener el título de doctor.

La tesis fue aprobada y Planck obtuvo su doctorado en física a los 21 años.

Como muchos doctores en física de la época, Planck estaba interesado en una carrera académica.

En esa época en Alemania, si uno quería ser profesor debía comenzar como instructor, o Privatdozent, cargo con responsabilidades docentes pero sin salario.

Los Privatdozent recibían pequeños honorarios de los estudiantes por la administración de exámenes.

Pero se necesitaba otro trabajo para sobrevivir.

Planck fue Privatdozent en Munich de 1880 a 1885.

En 1885 fue promovido a la categoría de profesor asociado, lo que significaba tener finalmente un salario regular por enseñar.

Con ingresos estables, se casó con su novia de la niñez, Marie Merck.

En 1889 se trasladó a la Universidad de Berlín como profesor de tiempo completo, en reemplazo de Kirchhoff, quien se jubilaba.

Planck fue también un pianista dotado; antes de decidirse por la física, había pensado seriamente en una carrera musical.

Se convirtió en uno de los científicos más importantes de su tiempo, y se hizo acreedor en 1918 al premio Nobel de física por su descubrimiento del cuanto de energía.

Planck y Borh

Las dos figuras centrales de la nueva fisica del siglo XX: Bohr y Planck.Las teorías cuánticas de Planck fueron desarrolladas e incluso modificadas por muchos científicos, pero se constituyeron en la base fundamental de toda la física cuántica actual.

Fue uno de los primeros en entender y aceptar Ja teoría de la relatividad, la que divulgó y desarrolló desde su exposición. Así mismo, trabajó con éxito en los campos de la mecánica y la electricidad.

En 1918, recibió el premio Nobel de física en reconocimiento su labor en la cuantificación de la energía.

————-  00000 ————

OBRA CIENTÍFICA:

Cuando el siglo XIX llegaba a su fin, muchos físicos se hacían preguntas sobre la tan honrada mecánica de Newton.

En macular, ¿seguía describiendo toda la naturaleza? En su búsqueda, los científicos empezaron a agruparse en dos campos.

Unos buscaba la respuesta estudiando lo que se llamaba «electrodinámica», la relación entre la mecánica y la electricidad. Los otros buscaban en la termodinámica y sus dos leyes básicas.

La primera ley reconocía que la energía ni se crea ni se destruye, sino que siempre se conservaba, y la segunda ley se basaba en la idea de que el calor no pasaría de un cuerpo más frío a uno más caliente.

El estudio de la termodinámica se basaba en suponer que la materia estaba compuesta de partículas.

Sin embargo, esto suponía un problema, ya que los átomos no habían sido descubiertos.

En su lugar, la visión tradicional era que la  atería era continua, no compuesta de discretos bloques de construcción.

A mediados de los 1870, Ludwig Boltzmann había propuesto una explicación termodinámica en la que la energía contenida en un sistema es el resultado colectivo del movimiento de muchas moléculas diminutas.

Creía que la segunda ley sólo era válida en sentido estadístico, sólo funcionaba si le añadían todos los trocitos de energía a todas as pequeñas partículas.

Boltzmann tenía respaldo, pero había muchos que dudaban.

Entre los detractores estaba Max Karl Ernst Ludwig Planck. 

Estaba fascinado con la segunda ley de la Termodinámica, pero rechazaba la versión estadística de Boltzmann porque dudaba de la hipótesis atómica sobre la que descansaba.

En 1882 afirmó falsamente: «a pesar del gran éxito de la teoría atómica en el pasado, finalmente vamos a tener que renunciar a ella, y decidir en favor de la suposición de que la materia es continua».

Durante los años 1890, Planck empezó a ver que la hipótesis atómica tenía el potencial de unificar distintos fenómenos físicos y químicos, pero su propia investigación estaba dirigida a encontrar una solución no atómica.

————-  00000 ————

En su famosa ley de radiación (1901), asegura que la radiación energética no puede ser emitida en cantidades arbitrarias, sino en ciertos paquetes que él llamó cuantos.

Cada cuanto debe poseer cierta cantidad de energía, que va en aumento mientras la frecuencia oscilatoria de los electrones sea mayor, de modo que para frecuencias muy altas, la emisión de un único cuanto requeriría más energía de la que es posible obtener.

De esta forma, la radiación de altas frecuencias se reduce y el ritmo con que el cuerpo pierde energía es, por consiguiente, finito.

En su teoría cuántica, el físico alemán consigue explicar muy bien la emisión de radiación por cuerpos calientes, y además indica de qué manera se distribuye la energía en el espectro de radiación de cuerpos negros.

————-  00000 ————

• De los cuerpos negros a los quanta

Planck y sus contemporáneos miraban a las teorías electrodinámicas del físico escocés James Clerk Maxwell para encontrar respuestas, pero fueron un fracaso.

En su lugar, un nuevo entendimiento emergió cuando volvieron su atención hacia la radiación de cuerpos negros.

Un cuerpo negro es un objeto teórico que absorbe toda la radiación que lo golpea.

Dado que no refleja nada, es negro.

Mientras que un cuerpo negro no refleja radiación, sigue radiando calor.

De otro modo, seguiría absorbiendo y su temperatura se elevaría indefinidamente.

La cosa más parecida que existe hoy es el avión espía americano Blackbird, que está cubierto con un pigmento absorbente que intenta absorber toda la radiación.

La primera persona en pensar sobre los cuerpos negros había sido el predecesor de Planck como profesor de física en Berlín, Robert Kirchhoff que afirmó que semejante radiación era de una naturaleza fundamental.

Para los 1890, varios físicos estaban investigando la distribución espectral de la radiación.

En 1896, Wilhelm Wien pronunció una ley de radiación que cuadraba con las observaciones experimentales, pero que, según Planck, era teóricamente débil, así que la rechazó.

En 1899, Planck procuró una nueva versión, que incorporaba algunas de las ideas de Boltzmann, a la que a veces se denomina la ley de Wien-Planck.

Planck estaba satisfecho.

En ese punto sentía que la ley se ajustaba a los datos experimentales y tenía unas bases teóricas sólidas.

Lamentablemente para Planck, se convirtió en una bella teoría destruida por los crudos hechos.

Los experimentos realizados en Berlín mostraron que no funcionaba con la radiación de baja frecuencia.

Después de revisar sus ideas, apareció con un nuevo concepto que incluía un valor para una constante llamada «b» y lo presentó en una reunión en la Sociedad Alemana de Física el 19 de octubre de 1900.

Si embargo, la nueva teoría aún no tenía ninguna noción de partículas o energía cuántica.

A posteriori, podemos ver que la respuesta real estaba justo delante de su cara, pero estaba tan seguro de la continuidad de la materia que no podía verlo.

Dos meses después, y como «un acto de despecho», renunció a la física clásica y abrazó la cuántica.

La gota final había sido un concepto desarrollado por John Rayleigh y James Jeans que se conocería como la teoría de la «catástrofe ultravioleta».

En junio de 1900, Rayleigh indicó que la mecánica clásica, cuando se aplica a los osciladores de cuerpos negros, lleva a una distribución de energía que aumenta en proporción al cuadrado de la frecuencia.

Esto entraba en conflicto con todo lo conocido.

La desesperación de Planck lo llevó a introducir lo que llamó «elementos de energía» o quanta.

En su presentación a la Sociedad Alemana de Física el 14 de Diciembre de 1900, Planck dijo que la energía «está hecha de un número completamente determinado de finitas partes iguales, y para ese propósito usó la constante de la naturaleza h = 6.55 x 10-(erg sec)».

Había nacido la teoría cuántica, aunque llevaría dos o tres décadas más y muchas mentes con talento darse cuenta de las implicaciones de la nueva era.

Composicion Básica de un Atomo

El Atomo Composicion Energia Nuclear Electrones y Protones Particulas –  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

• ►Cronología

1858: Nace en Kiel, Alemania, en una familia académica. Su padre era profesor de derecho constitucional en Kiel, y tanto su abuelo como su bisabuelo fueron profesores de teología en Gottingen

1867: Se muda a Munich, donde va a la escuela

1874: Estudia en Munich con Gustav Kirchhoff. Antes de empezar, discutió el prospecto de investigación física con el profesor de física Philipp von JolLy, quién se supone le dijo que la física era esencialmente una ciencia completa, con pocas posibilidades  de desarrollo. Afortunadamente parece que ignoró los comentarios, antes de mudarse a Berlín para estudiar con Hermann von Helmholtz

1889-1926: Profesor de física, Berlín

1900: Anuncia su Teoría Cuántica

1914-1918: Su hijo mayor muere en la Primera Guerra Mundial

1918: Recibe el Premio Nobel

1926: Elegido miembro Extranjero de la Royal Society

1944: Su hijo menor, Erwin, es ejecutado cuando lo declaran culpable de estar envuelto en un complot para asesinar a Hitler

1947: Muere en Gottingen el 3 de octubre. Después de saber de su muerte, Albert Einstein escribió: «Qué diferente y cuánto mejor sería la humanidad si hubiera más como él… Parece que los personajes buenos de todas las edades y continentes tienen que permanecer aparte del mundo, incapaces de influir en los eventos».

PARA SABER MAS…:

Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía.

Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias.

Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados  por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante.

Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Teóricamente, un sistema que contiene radiaciones de diversas frecuencias distribuye su energía del mismo modo que un sistema que contiene moléculas de gas de muy diversas velocidades. Pero existe una diferencia capital: la velocidad de las moléculas de un gas posee un límite superior irrebasable y, en cambio, la frecuencia de las posibles radiaciones es incomparablemente superior.

El sistema de radiaciones se asemejaría al sistema acústico de un piano con un número ilimitado de cuerdas, cada vez más reducidas.

Al pulsar cualquier nota, el piano resonaría con frecuencias cada vez más elevadas, mientras la energía de la nota original se transmitiría por la escala musical hasta el infinito.

Planck trató de explicar por qué este resultado, previsto teóricamente, no se producía en la práctica.

Al fin tuvo que adoptar unos supuestos totalmente distintos.

En diciembre de 1900 propuso en una conferencia científica que la energía radiante se producía y recibía en lotes discontinuos e indivisibles que denominó cuantos, término procedente del latín (quantum significa «porción»).

La energía de estos cuantos es directamente proporcional a la frecuencia de la radiación. Es decir, se obtiene multiplicando dicha frecuencia por una cifra que hoy denominamos «constante de Planck».

Planck había descubierto que la energía no podía dividirse hasta el infinito, como hasta entonces se había supuesto.

Existía un «impulso» de energía mínimo, por debajo del cual no se producía intercambio energético alguno.

Para una radiación, cuya frecuencia sea la unidad, se obtiene precisamente el valor de ese cuanto mínimo de energía o constante de Planck.

Se representa por la letra h, y su valor en unidades cegesimales es 6,547 x 10-27 ergios por segundo, cifra realmente insignificante pero que, a escala atómica, posee decisiva importancia.

A partir de 1905, Albert Einstein comenzó a desarrollar las ideas de Planck, mientras éste prosiguió durante muchos años realizando importantes contribuciones en los campos de la termodinámica y de la teoría de los cuantos.

Fuente Consultadas:
Einstein Para Dummies Carlos I. Calle
Las Grandes Ideas Que Formaron Nuestro Mundo Peter Moore – Max Planck

La Gran Ciencia: Los Grandes Proyectos Cientificos del Mundo

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

¿QUE ES LA GRAN CIENCIA?

Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia.

No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios.

Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías).

Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

Biografía Rutherford: Modelo Atomico de la Configuración del Atomo

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio.

En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios.

Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales.

A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía.

El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev).

Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

Imagen del Acelerador de Partículas del CERN

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro.

En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares.

Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo.

En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica.

Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos.

Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial.

Un Proyecto Especial en la Historia de la Ciencia y Tecnología Fue El Envío de Astronautas a la Luna

Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés.

Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países.

Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la National Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes.

En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro.

Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

GRAN CIENCIA, APOLO

Transbordadores Espaciales y Una Estación Espacial en Orbita Otra de las Grandes Obras Tecnológicas de la Historia

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos.

Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia.

Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.