La Energía Nuclear

El Conocimiento Científico La Fisica y el Estudio de la Naturaleza

El Conocimiento Científico
La Física y el Estudio de la Naturaleza

Ciencia es un término que en su sentido más amplio se emplea para referirse al conocimiento sistematizado en cualquier campo, pero que suele aplicarse sobre todo a la organización de la experiencia sensorial objetivamente verificable a traves de la estricta observación. Para ello se recurre al llamado método científico que estipula y organiza los pasos para experimentar sobre un fenómeno natural y desarrollar una teoría rigurosa de su esencia.

Para la Ciencia, la naturaleza se manifiesta siguiendo determinadas pautas que revelan una estructura de relaciones entre sus partes. Estas pautas o leyes, que el científico intenta descubrir, no son modificables por la voluntad humana pero su conocimiento puede servir para eliminar, alterar o producir determinados acontecimientos. Podríamos decir que la sospecha de la existencia de una legalidad inherente al Universo es un “mito”o creencia que hace posible la Ciencia.

La Ciencia actual no debe considerarse como un saber completo, acabado y absoluto. Muy por el contrario, los enigmas y misterios que enfrenta son múltiples e inacabables. Creer que la Ciencia puede brindar una respuesta definitiva para todo también es superstición.

Podemos decir que el conocimiento científico es por su misma esencia dinámico y cambiante: cada nuevo avance genera una multiplicidad de inéditos interrogantes y posibilidades de investigación, haciendo que en la práctica el proceso resulte de duración indefinida.

HISTORIA: Los antiguos solucionaron problemas de física, pero sin extraer conclusiones, sin establecer leyes. Y así fue por miles de años. Luego, entre los siglos VII y VIII a. de C., apareció la ciencia que por primera vez estudió los fenómenos de la naturaleza; y entonces nació la física. El coloso de la física antigua fue Arquímedes (287-212 o. de J. C). Después de él prácticamente hubo un vacío. Su sistema de estudio y de investigación, que podemos llamar experimental, se perdió, y durante siglos, la física no fue sino un conjunto, un poco caótico, de distintas observaciones.

En la segunda mitad del siglo XV, Leonardo Da Vinci comenzó a estudiar los fenómenos reproduciendolos artificialmente , a fin de intentar establecer leyes fisicas estrictas.

Finalmente a mediados del siglo XVI nació el hombre que fundó, virtualemente, la física moderna , Galileo Galilei demolió practicamente toda la teoría aristotélica que había dominado el saber durante toda la Edad Media. Creó de esta manera a través de la experimentación y observación, las técnicas de la ciencia actual, que permite obtener resultados precisos y formulados de los fenòmenos naturales estudiados en el laboratorio.

La obra de Galileo fue continuada por Torricelli (1608-1647). En el mismo año de la muerte de Galileo , nacia en Inglaterra que habría de ser una figura cumbre en la historia de la ciencia, Isaac Newton. Estableció entre otras, la famosa Ley de Gravitación Universal, que explica como se mueve los cuerpos celestes en el universo.

Los estudios sobre mecánica, astrofísica, óptica y matemática fueron muy profundo, creando el calculo superior, una nueva matematica que le sirvió como herramienta fundamental para describir cuantitativamente el estudio de sus observaciones y teorías. Murió en 1727, siglo XVIII, siglo considerado como el siglo de las ciencias, ya que en él, se estudiaron los fenómenos eléctricos, magnéticos y caloríficos, llegando a correcto resultados para interpretar la naturaleza y poder avanzar en el estudio de nuevoa fenómenos.

Fue durante el siglo XIX, naturalmente, donde la física se desarrolló en todo sentido, cumpliendo señalados progresos en sus distintas ramas. Se difundió, también, la física aplicada especialmente a las máquinas, a los motores de vapor, de explosión y eléctricos. El siglo XIX es el siglo de la óptica (fotografío, cinematografía, etc.) y de la electricidad (motor eléctrico). Y puso los fundamentos dé la electrónica.

Del siglo XIX se ha pasado, sin altibajos, a nuestro siglo, en que, desde el punto de vista científico se están repitiendo los “milagros” de Galileo y de Newton. En los primeros cincuenta años del siglo XX, el “hombre más importante de la física fue Alberto Einstein, el sabio investigador alemán, que con sus profundísimos estudios sobre la luz, el tiempo, el espacio y la energía, ha hecho avanzar considerablemente los conocimientos de la humanidad, y ha descubierto muchas leyes que regulan la naturaleza y el universo.

http://historiaybiografias.com/archivos_varios5/ciencia0.jpg

ESTE relato pertenece a un escritor del siglo pasado. Una vez, en casa de un agricultor acomodado, el hijo mayor regresó de la escuela con un cero en el cuaderno. —¡Cero! —exclamó el padre furioso— ¿Y se puede saber por qué has sacado un cero en las clasificaciones de este bimestre?.

—Porque no he sabido explicar al profesor qué es la física —balbuceó el muchacho entristecido.

—¡Ah! ¿sí? Sin embargo, es una cosa bastante sencilla. Mira: esta vara está quieta, apoyada en la pared. Ahora yo la tomo y esto es física, porque una ley física dice que un cuerpo permanece inmóvil hasta que intervenga una fuerza que lo mueva. Si la suelto caerá al piso en caída libre con una velocidad cada vez mayor. Si la rozo en tu espalda  la vara se dobla, y este es un fenómeno físico. Tú sientes un escozor es debido a la fricción, y la fricción pertenece a la física. Aprende, hijo mío, la física no es difícil, porque tiene relación con casi todas las acciones que forman parte de nuestra vida. . .

fenómeno físico

fenomeno quimico

El objetivo de la Ciencia es, por una parte, una comprensión, lo más completa posible, de la conexión entre las experiencias de los sentidos en su totalidad y, por otra, la obtención de dicho objetivo usando un número mínimo de conceptos y relaciones primarios.” Albert Einstein.

La Ciencia intenta comprender el Universo,  esto significa que pretende ordenar conceptualmente el aparente caos de los hechos naturales, para descubrir el orden subyacente en los fenómenos de la realidad. Por eso todas las Ciencias naturales (Física, Química, Biología, Geología, Meteorología) parten de la observación de la naturaleza.

Y permiten extraer los datos necesarios para la enunciación de explicaciones tentativas. Pero esta observación no es imparcial, porque siempre aparece condicionada por el conjunto de ideas adquiridas previamente y que orientan nuestra actitud. La observación por sí sola no es garantía de explicación científica, pues sin un ordenamiento metodológico no permite arribar a conclusiones fehacientes a partir de los fenómenos estudiados.

Observar implica recortar la realidad arbitrariamente, elegir determinados hechos y desechar otros de la multiplicidad de fenómenos que propone la naturaleza.

No todos los observadores de un mismo hecho “verán” y registrarán lo mismo, porque cada uno lo hace con una intención y desde un punto de vista diferente, que modula sus respectivas percepciones. Con Galileo Galilei comenzó a planificarse el estudio de fenómenos, es decir, la experimentación metódica. Todas las Ciencias naturales recurren a ella en mayor o menor medida.

La experimentación consiste en la producción deliberada de un hecho, el cual puede ser repetido siempre que se den las mismas condiciones. Por supuesto, la repetibilidad de un hecho es relativa, ya que en un sentido muy estricto, cada hecho es único e individual. Por eso el científico, al preparar el experimento, debe cuidar de mantener invariables las condiciones de producibilidad del fenómeno en estudio, con el fin de poder investigar las características que él considera relevantes.

Un aspecto fundamental de la experimentación en Ciencias Naturales es su carácter cuantitativo. Los datos que se obtienen provienen del registro de los resultados emergentes de la observación experimental. La Ciencia se expresa a través de los conceptos y relaciones de la Matemática. El lenguaje matemático es claro, no presenta ambigüedades y permite una comunicación eficaz.

La Ciencia se expresa a través de los conceptos y relaciones de la Matemática.
El lenguaje matemático es claro, no presenta ambigüedades y permite una comunicación eficaz.

EL ESTUDIO DE LA NATURALEZA
Volviendo al ejemplo del enérgico e inteligente padre tenía realmente razón: la física “está” por doquier, alrededor nuestro. Un gran número de acciones, hechos y fenómenos que tienen lugar en el mundo, pertenecen a la física. Cuando permanecemos quietos es un fenómeno físico; lo mismo cuando nos movemos, nos paramos, saltamos, estrechamos las manos, miramos alrededor, damos vuelta una manija, llevamos una valija, esci’ibimos, nos sentamos, hablamos, etc., etc. Así podríamos seguir empleando centenares y miles de términos. La “terrible” física ¿no es, en realidad, nuestra propia vida?.

Los antiguos griegos llamaron física (de “phisis”, naturaleza) al estudio o ciencia de la naturaleza. Pero con el progreso del conocimiento humano, esta ciencia se ha extendido en tal forma que ha sido necesario dividirla en varias ramas: zoología, botánica, química, mineralogía, geografía, geología, etc. Él nombre de física ha sido destinado, así, para señalar exclusivamente la ciencia que estudia los fenómenos en los cuales la materia, las sustancias, no son transformadas. Esta definición sirve para distinguir los fenómenos físicos de los químicos.

En el fenómeno físico, como dijimos, las sustancias no son cambiadas, no son transformadas. Son fenómenos físicos, por ejemplo, la caída de an cuerpo, la ebullición de un líquido, el reflejo de un rayo luminoso sobre un espejo, etc.

En el fenómeno químico las sustancias Son transformadas en otras sustancias. Por ejemplo, son fenómenos químicos: la combustión (en la cual el carbón —supongamos— es transformado en anhídrido carbónico) ; la descomposición del agua en hidrógeno y oxígeno, etc.

Conviene aclarar que esta división no es rigurosa, porque hay fenómenos —especialmente en la física nuclear— en los cuales la materia, la sustancia, es igualmente transformada de modo que son a la vez físicos y químicos. La división indicada tiene, pues, sólo un valor indicativo, de orientación, y de ningún modo, de separación total.

FENÓMENOS, LEYES Y PRINCIPIOS:

Aquí, antes de proseguir nuestra incursión en el mundo de la física, es necesario comprender el significado de tres palabras que se encuentran a menudo: fenómeno, ley y principio.

Para la física, el término fenómeno no tiene el mismo significado que en el lenguaje común, es decir, algo extraordinario, inexplicable, fuera de lo habitual. Al contrario: en física, fenómeno es cualquier hecho que sucede en la naturaleza. Son fenómenos: la caída de una piedra, el vuelo de un pájaro, etc. De modo que los hechos más comunes y normales, para la física son fenómenos.

fenomeno plano inclinado

Fenómeno natural, caída de un cuerpo sobre un plano inclinado, estudiado por Galileo

http://historiaybiografias.com/archivos_varios5/ciencia4.jpg

Caída libre de un cuerpo, otro tipo de fenómeno natural, también estudiado por Galileo

http://historiaybiografias.com/archivos_varios5/ciencia5.jpg

Principio de Arquímedes, empuje sobre un cuerpo sumergido en un fluído, Arquímedes logró entender este fenòmeno natural

Las leyes, dicho en palabras simples, son las reglas generales según las cuales suceden siempre los fenómenos. Si yo tengo una piedra en una mano y abro esta, la piedra cae siempre hacia abajo, exactamente de acuerdo con la ley de la gravedad. Si yo repitiera la acción mil veces, tendría siempre el mismo resultado, porque la causa que produce el fenómeno es siempre la misma y no puede variar: la atracción terrestre.

Naturalmente, las leyes existen aunque nadie las defina. A veces, determinadas leyes son enunciadas, formuladas con un principio. Cuando se enuncia el famoso principio de Arquímedes: un cuerpo sumergido en un líquido recibe de abajo un empuje hacia arriba igual al peso del líquido desplazado, se enuncia en forma científica una ley, una regla general, a la cual todos los cuerpos sumergidos en un líquido obedecen. Así es, y así sucederá siempre.

http://historiaybiografias.com/archivos_varios5/ciencia6.jpg

Caída en el vacío de un cuerpo pesado y una plema, ambos caen en el mismo tiempo.

FÍSICA CLÁSICA Y FÍSICA NUCLEAR

Hasta fines del siglo pasado, aproximadamente, la física era aún la tradicional, la clásica, la que se enseñaba en las escuelas desde tres siglos antes, por lo menos. La física que se refería a objetos y fenómenos de cierta magnitud, visibles y observables directamente, sin la ayuda de ningún instrumento. Ejemplo: el movimiento de una bola que desciende por un plano inclinado bajo la acción de la fuerza de la gravedad, es un fenómeno de la física clásica.

Pero ya a fines del siglo pasado apareció en escena una “cosa” de una pequenez increíble, pero que se volvió sumamente importante: el átomo, tan diminuto en sí y dotado de tanta potencia.

Como sabemos, el átomo es invisible, lo mismo que la molécula. Así nació la física que se ocupa de los fenómenos moleculares, atómicos y nucleares, que no siguen las leyes de la física clásica, sino que se comportan obedeciendo otras leyes, generalmente más complicadas. Esta es la física nuclear, que se está convirtiendo en una de las ciencias más importantes para la humanidad.

Por ejemplo: la escisión de un átomo de uranio, fenó¿neno absolutamente invisible a simple vista, es un fenómeno de la física nuclear.

EL MÉTODO EXPERIMENTAL
Los antiguos, y en primer término el gran Aristóteles, pensaban que cuanto más pesado es un cuerpo, más velozmente cae. Una bola que pesa treinta kilos —decían— caerá a una velocidad tres veces mayor que una que pesa diez. Durante siglos nadie osó contradecir esta ley porque la había formulado el consagrado sabio Aristóteles.

Pero Galileo no fue de este parecer. Era un joven profesor en Pisa cuando anunció que, según sus observaciones, Aristóteles estaba muy equivocado. El anuncio produjo gran escándalo. Los hombres de ciencia se preguntaron quién sería ese jovenzuelo presuntuoso que deseaba derribar las bases de la ciencia. Pero Galileo demostró, en forma sencillísima, que los seguidores de las antiguas doctrinas se hallaban en un error. Parecía que la famosa torre inclinada de Pisa hubiera sido puesta allí precisamente para facilitar los experimentos del joven profesor.

Un día, seguido de un séquito de docentes y discípulos, Galileo subió a la torre, rogó a loa curiosos que dejaran libre el espacio necesario, y dejó caer simultáneamente dos bolas: una de una libra de peso y otra de diez. Ambas tocaron el suelo simultáneamente, quedando demostrado de una vez para siempre que los cuerpos de dis tinto peso caen con igual velocidad (si se hiciera la objeción que, al tirar una pluma y una pesa de hierro, la primera cae mucho más lentamente, se lia do advertir que ello es debido a la resistencia del aire, pues en el vacío ambas caerían juntas).

Aquellos hombres volvieron a sus casas avergonzados, y el genial Galileo señaló el nuevo camino que la ciencia, desde entonces, habría de recorrer siempre: el método experimental. Es decir, que la verdadera investigación científica no debe basarse solamente en el razonamiento, sino también en el experimento. Los fenómenos físicos deben ser experimentados concretamente, en forma de poder extraer de ellos conclusiones —o sea, leyes y principios— seguras y probadas reiteradamente.

Ver: Pasos del Método Científico

DIVISIÓN DE LA FÍSICA CLÁSICA
Por razones prácticas, la física clásica se divide en cinco grandes partes:

1) Mecánica (del griego “mekhane”, máquina) que estudia el movimiento de los cuerpos.

2) Termología (del griego “thermos”, calor, y “logos”, estudio) que estudia el calor.

3) Acústica (del griego “akoustieos”, que se refiere a oír, escuchar) que estudia el sonido.

4) Óptica (del griego “ópticos”, derivado de “ops”, vista) que estudia la luz y los fenómenos luminosos.

5) Electrologia (del griego ”elektron”, ámbar, que se electriza por frotamiento) que estudia los fenómenos eléctricos y magnéticos.

A estas cinco partes deben agregarse la geofísica y la astrofísica.

LA FÍSICA APLICADA
Supongamos que un ingeniero —o un grupo de ingenieros— debe proyectar un motor de automóvil. Efectuarán centenares de cálculos, diagramas, proyectos y bosquejos. Queremos ver uno? He aquí: “Cálculo del coeficiente de dilatación“; es decir, en palabras simples, en la proyección del motor habrá que tener en cuenta la dilatación que las distintas partes metálicas sufrirán por la acción del calor. Y la dilatación, naturalmente, es un problema que atañe a la física, y más precisamente, a la termología.

Este es un ejemplo; pero podrían citarse miles y miles: todos los casos en que la física es aplicada a problemas técnicos y científicos: la proyección de un motor, de una máquina cualquiera, de un lente, de un aparato óptico, de un vehículo, de un avión, de un dique, y otras creaciones de la técnica.

En la actualidad, el físico trabaja en la planta fabril, en el astillero, en el laboratorio, etc. Es uno de los tantos hombres que contribuyen al progreso de la ciencia.

LA GEOFÍSICA: Pensemos durante unos instantes en una tormenta. ¿Qué es? Se dirá: es un fenómeno atmosférico en el que hay viento, lluvia, descargas eléctricas, etc. Exacto, Pero si tuviéramos que responder qué tipo de fenómeno es, según la física, nos veríamos en un aprieto. ¿Es un fenómeno de la mecánica?; ¿de la termología?; ¿de la electricidad?.

La respuesta es: la tormenta es un conjunto de fenómenos de todos estos tipos. Y más que nada, corresponde a la Tierra. La ciencia que estudia los diferentes fenómenos terrestres desde el punto de vista de la física se llama geofísica (del griego “geo”, tierra). Esta se divide en distintas ramas: sismología (estudio de los terremotos) ; geodesia (estudio de la forma de la Tierra) ; meteorología (estudio de la atmósfera terrestre y sus fenómenos) ; etc.

LA ASTROFÍSICA: Sabemos, por ejemplo, que la “atmósfera” de Saturno, la de Urano, o la de Plutón, es decir, la de planetas distantes miles de millones de kilómetros, está compuesta de diversos gases, como hidrógeno, metano, amoníaco, etc. ¿Cómo ha sido posible establecer esto, a tal distancia? Haciendo pasar la luz que reflejan estos planetas ñor prismas de vidrio, que la descomponen en los diversos colores que la forman (espaetro).

Se sabe que cada cuerpo luminoso o incandescente produce ua espectro característico. Produciendo el espectro délas radiaciones luminosas que se reciben de los cuerpos celestes más lejanos, es posible establecer de qué elementos están compuestos. Esta tarea pertenece a la astrofísica, la ciencia que estudia los aspectos de la astronomía estelar según las leyes de la física.

De la Física Aplicada a la Ingeniería

Fuente Consultada:
FISICA II Dinámica, Fluídos, Física Cuántica, Astronomía – Aristegui-Baredes-Fernández-Silva-Sobico Editorial Santillana
Enciclopedia Estudiantil Fasc. Nº72 Editorial CODEX

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Conceptos Básicos de Electrostática Cargas Eléctricas

EXPERIMENTO CON CARGA ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar. Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos. Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto. Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro. La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente. Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador. el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco. Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico. Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

El Atomo Para Niños y Principiantes Explicación Sencilla

PARA NIÑOS: PARTÍCULAS Y ESTRUCTURA DEL ÁTOMO

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales, cuando vamos de paseo vemos correr el agua de un río, las piedras de grandes montañas, la tierra en los caminos, y seguramente vamos viajando sobre un automóvil que está construído con diversos y distintos materiales como: acero, plástico, tela, cuero, goma, etc. Pero bien,…esos materiales ¿de que están hechos?,….esa pregunta también se la hicieron hace unos 2500 años en Grecia Antigua, grandes hombres dedicados a la ciencia , como Thales de Mileto, Empédocles y Demócrito, todos ellos vivieron entre 600 y 400 antes de Cristo y aquí te los presento:

thales, empédocles y demócrito

Cada uno de ellos, y también otros pensadores mas, tenían su propia teoría o forma de explicar los elementos que constituían la materia, por ejemplo para Thales era el Agua, para Empédocles era no solo el Agua, sino también la Tierra, el Fuego y el Aire, es decir los cuatro elementos fundamentales.

Pero un día llegó el señor Demócrito de una ciudad griega llamada Abdera, y afirmó que para saber la composición de la materia, deberíamos ir cortándola por mitad sucesivamente. Imagina una hoja de papel que la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso?.

Según su idea, de dividir constantemente un cuerpo de cualquier material, obtendríamos un trozo cada vez mas pequeño, hasta obtener una porción mínima que seria imposible volver a cortarla es decir, esa porción seria INDIVISIBLE.  A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo.

Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto que tanto amaban los griegos en sus fogosas discusiones.

atomo democrito

Imagina que deseas conocer como está formada la manzana, para ello (según Demócrito) debes cortar indefinidamente la misma hasta llegar a una mínima porción “atómica”, y ese es el elemento fundamental con la que está consituída la fruta.

El mundo material, el mundo que nuestros sentidos conocen está formado por gases, como el oxígeno de aire que respiramos en este momento o el hidrógeno, de líquidos, como el agua o el alcohol, de sólidos, como el hierro o el azúcar, o de las hojas, flores y frutos de un árbol, todos no son más que diferentes agrupaciones de un número inmenso de pequeñísimos de esos corpúsculos llamados átomos.

Los átomos son muy poco diferentes los unos de los otros, por ejemplo hay átomos del material HIERRO, átomos de OXIGENO, átomos de COBRE, átomos de CARBONO, etc. En la naturaleza hay 103 elementos conocidos, entre naturales y artificiales (porque los ha hecho el hombre en el laboratorio, hoy puede haber algunos más).

Despúes de muchos años de experimentos e investigaciones los físicos del siglo XX pudieron penetrar dentro de “esa porción indivisible”,  y observaron que además existían otras partículas aún más pequeñas que los átomos y que eran las partes constituyentes del mismo.

La forma de dibujar un átomo, es la siguiente:

esquema de un átomo

Los científicos notaron que el átomo tiene en su centro casi una “esferita” que en su interior contiene dos partículas llamada: PROTONES Y NEUTRONES.

Por otro lado también observaron que alrededor de ese núcleo, giraban a gran velocidad otras partículas más pequeñas que las del núcleo y las llamaron: ELECTRONES.

Las partículas ELECTRÓN Y PROTÓN, tienen una carga eléctrica, en el primero la carga es NEGATIVA y el segundo la carga eléctrica es POSITIVA. Los NEUTRONES no poseen carga y el nombre deriva de la palabra “neutro”.

El atómo está equilibrado eléctricamente, es decir por ejemplo, que si hay 10 electrones girando (10 cargas negativas), también ese átomo tiene 1o protones en su núcleo (10 cargas positivas)

En el esquema de abajo, vemos el átomo de HELIO, material con que están hechas las estrellas. Tiene dos protones y dos electrones. La cantidad de neutrones es variable, aqui también tiene dos.

composicion del atomo: protones, neutrones, electrones

¿Que es lo que hace que un material sea Hierro, otro Helio y otro por ejemplo Oro?…LA CANTIDAD DE PROTONES contenidos en el núcleo, cantidad que se denomina: NÚMERO ATÓMICO, en el caso del esquema: Na=2

A la suma de la cantidad de protones mas neutrones la llamamos: NUMERO MÁSICO, y en el caso que nos ocupa es: Nm=2+2=4.-

Esos mas de 100 elementos que forman la naturaleza, fueron agrupados en una tabla para ser estudiados y se la llama: Tabla Periódica de los Elementos Químicos o también Tabla de Mendeleiev

tabla de mendeliev

Ampliar Esta Tabla

Observa que cada elemento (químico) tiene una ubicación, y el orden es por el Número Atómico de cada elemento: primero es el HIDRÓGENO, con un protón, le sigue el HELIO con dos protones, luego el LITIO con tres protones, el BERILIO con cuatro protones, y asi hasta el último elemento N° 103 , llamado LAWRENCIO. Hay otros números en columna a la derecha, que luego veremos y nos muestra las capas y subcapas de los electrones. Los colores de los grupos es para diferenciar los tipos de elementos, entre alcalinos, lantánidos, no metales, metales ,etc. cada uno con sus propias características, como el brillo, conductividad electrica, etc.

estructura atomo de hidrógeno

LAS MEDIDAS DEL ÁTOMO:

Para los seres humanos es muy díficil imaginar distancias tan pequeñas, como es de la partículas atómicas, pero podemos decir que esas partículas, tienen un diámetro medio de unas diez millonésimas de milímetro, se necesitarían más de diez millones de ellas colocadas en línea recta para tener un milímetro de longitud.

1 mm.= 10.000.000 de partículas

El núcleo, que es parte predominante, es decir, la mas grande, de forma esférica, que posee un radio de unos  0,0000000000001 centímetros, UN UNO CON TRECE CEROS, como se puede ver es una medida sumamente chica para poder imaginarla. El diámetro de los electrones es aún mas pequeño.

Respecto al peso de esas partículas, no vamos a dar números, pero es un UNO CON VEINTIOCHO CEROS de gramo, y el peso del protón es 1836 veces el peso del eléctrón. A este concepto le llamamos MASA DE LA PARTÍCULA.

Dijimos que los electrones giran muy rapidamente alrededor del nucleo, en una trayectoria circular, y el radio de esa circuferencia es de UN UNO CON 11 CEROS de metro, 0,00000000001 m. Para las dimensiones del átomo esa medida es grande, porque esa medidas es 25.000 veces mas grande que el radio del núcleo.

Para llevarlo a una escala “mas humana”, piensa que si el nucleo tiene la medida de una moneda, el radio del electrón seria de unos 250 metros.

Presentamos un esquema aproximado de las dimensiones a modo de aclarar un poco mas la idea, pero como consejo solo trata solo de recordar que un átomo mide 10.000.000 veces que 1 metro.

ESQUEMA medidas del atomo

NIVELES DE ENERGIA DE LOS ELECTRONES

Debemos aclarar que esas partículas son tan pequeñas que no pueden observarse, y cuando enviamos un rayo de luz para intentar verla, esa partícula cambia de posición en el mismo instante, entonces es imposible hablar de la posición exacta en el espacio que rodea al núcleo. Como consecuencia nació a principio del siglo XX una nueva física, conocida como física cuántica, que recurre a la PROBABILIDAD  de encontrar o “ver” un electrón en la región que rodea al núcleo de un átomo.

A partir de ese concepto hablamos de la CERTEZA de que un electrón se encuentre girando en cierta área que rodea al núcleo. Existen varias áreas o regiones de giro, y cada una le corresponde lo que llamamos NIVEL DE ENERGIA, para cada nivel hay un NÚMERO MAXIMO de electrones que pueden girar. Hay una fórmula muy simple que permite determinar la cantidad de electrones por nivel de energía o CAPA, y es la siguiente: 2.n².

Observa como se calcula el número de electrones por cada nivel en el esquema de abajo, usando la fórmula anterior.

niveles de energia de los electrones

Y finalmente cada nivel tiene un subnivel o subcapa que también permite que en esa zona giren electrones, a cada subnivel se lo llama. s , p , d , f, y el máximo de electrones es de 2, 6, 10 y 14 respectivamente.

Puedes observar la tabla siguiente:

tabla de subniveles de energia atomica

Resumiendo lo antedicho, podemos concluír que:

Entonces para el nivel es el 1, sabemos que solo puede contener 2 electrones, por lo que el nivel 1 tiene una subcapa llamada s, que permite 2 electrones.

Para el nivel 2, la cantidad de electrones es de 8, por lo que tendrá dos capas, la s y la p, con 2 y 6 electrones, es decir 8 en total.

Para el nivel 3 , la cantidad de electrones es de 18, entoces tendra tres capas, s, p y d , con 2, 6 y 10  electrones y l suma es 18.

En la tabla siguiente lo podemos analizar mas fácil, para tres capas.

tabla de capas y subcapas de los atomo

Entonces veamos por ejemplo ahora el átomo de NIQUEL, que según la tabla de los elementos nos indica que tiene 28 protones, entonces el numero de electrones también será de 28, y estarán ubicados de la siguiente manera:

En el NIVEL 1, tendrá 2 en la subcapa s , + NIVEL 2 con 8 en dos cubcapas ( s, p)  + NIVEL 3 con 18 en tres subcapas (s,p,d), cuya suma es de 28 electrones.

AMPLIACIÓN SOBRE LA ENERGÍA NUCLEAR: Los átomos de un elemento tienen siempre el mismo número atómico, pero pueden poseer distinto número de masa, por contar con un número diferente de neutrones; tales átomos se denominan isótopos.

El edificio del átomo, centro de enormes fuerzas que se ejercen entre cargas opuestas, no presenta una estabilidad ilimitada. El núcleo puede desintegrarse y liberar energía atómica, más correctamente energía nuclear, pues el proceso tiene lugar directamente en el núcleo del átomo.

Los fenómenos que conducen a la liberación de tal energía son la fisión y la fusión de núcleos. La fisión, traducción fonética de la voz inglesa fission, significa escisión, división o partición de la masa de un núcleo pesado en dos fragmentos, que originan los núcleos de otros dos átomos más livianos y de pesos atómicos más o menos iguales, y la fusión, unión de dos núcleos de átomos livianos para formar el núcleo de uno más pesado.

En ambos casds, la liberación de cantidades extraordinarias de energía se debe a la transformación de cierta cantidad de masa de los núcleos de los átomos originales de energía. Esta se determina por medio de la fórmula:

E = m.c², establecida por Albert Einstein.

En ella, E es la energía liberada, m la masa transformada y c la velocidad de la luz. Gracias a dicha transformación, destrucción o aniquilamiento de la masa o materia se puede, de una pequeña cantidad de ella, obtener una cantidad enorme de energía. Así, de la fisión de 1 kilogramo de uranio puede obtenerse una cantidad de energía equivalente a la que produce la combustión de 2.500 toneladas de carbón.

Las aplicaciones de la energía nuclear son numerosas. La bomba atómica o bomba A y la bomba de hidrógeno o bomba H se pueden emplear para excavar grandes canales, demoler rocas, etc. Los reactores nucleares sirven para producir energía eléctrica, así como para propulsar buques. También se utilizan piara obtener isótopos artificiales que tienen aplicaciones en medicina, agricultura e industria.

Fuente Consultada:
CIENCIA JOVEN Diccionarios Enciclopedico Tomo V – El Átomo y su Energía-

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Fuerzas en un Plano Inclinado Descomposicion del Peso

DESCOPOSICIÓN DE UN PESO SOBRE UN PLANO INCLINADO

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión. No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo. Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso. Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py. Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py. Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, O=@ (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @. Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo. En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente. El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra. Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Cálculo del Radio de la Orbita en el Átomo de Hidrógeno

Cálculo del radio de la primera órbita del átomo de hidrógeno
Como es sabido, un átomo puede compararse a un sistema solar en miniatura. El centro, o núcleo, es relativamente pesado y estacionario, mientras que los electrones giran alrededor, en forma similar a como los planetas giran alrededor del Sol.

En general, las distancias electrón-núcleo son del orden de  10-8 cm, 0,00000001 cm.

esquema radio del hidrogeno

En un átomo la fuerza que mantiene a los electrones en sus órbitas no es gravitatoria, sino de naturaleza electrostática, ya que el protón (único componente del núcleo en el átomo de hidrógeno) y el electrón tienen cargas contrarias.

Neils Borh

Niels Bohr

Al igual que la fuerza gravitatoria, la electrostático es inversamente proporcional al cuadrado de las distancias.

Teniendo en cuenta que en una órbita circular la fuerza centrípeta está constituida por esta fuerza de atracción electrostática, e introduciendo el postulado de Niels Bohr, que establece que el momento angular del electrón en una órbita circular está cuantificado, es decir, sólo puede alcanzar valores enteros de h/2.¶ , donde h es la constante de Planck,   obtendríamos  la  siguiente expresión:

formula radio orbita del hidrogeno

que nos permite hallar para la distancia requerida el valor de 5.28.10-9 cm., sustituyendo las constantes n (en este caso es igual a 1, por ser la primera órbita), h (constante de Planck), m y e (masa y carga del electrón) por sus valores respectivos.

Valores de:
h=6.62606957 ×10 -34 J×s
m=9,109 382 91×10−31 Kg.
e=1,602 × 10-19 culombios

El valor obtenido, conocido como radio de Borh es: 5,291 772 0859×10−11 m.

 

Calcular la Velocidad de Una Bala Pendulo Balistico

HALLAR LA VELOCIDAD DE UNA BALA

La velocidad de una bala de rifle o de pistola puede medirse con un aparato llamado péndulo balístico. Consiste en esencia de un bloque de madera o dé plomo, de masa M, suspendido por una cuerda, como se indica en la figura.

pednulo balistico calcula velocidad de una bala

Si disparamos una bala de rifle de masa m y velocidad v contra dicho bloque, obligaremos a éste a recorrer el arco @, que puede ser medido fácilmente. Cuando la bala ha penetrado en el bloque, el conjunto se mueve con una velocidad V, y de acuerdo con el principio de conservación de la cantidad de movimiento, podemos escribir:

m . v = (M + m).V

Para hallar el valor de v, velocidad del proyectil antes de que se produzca el impacto, sólo nos resta pues conocer el valor de V, velocidad del conjunto después de que la balo se ha incrustado en el bloque.

Esta velocidad se puede hallar fácilmente aplicando el principio de conservación de la energía al movimiento de (M+ m) desde A, donde la energía es totalmente cinética (y potencial nula), hasta el final de su recorrido B, donde toda la energía es potencial (y cinética cero)

1/2 (M + m) V² = (M + m) g. h

Despejando V de esta fórmula de conservación de la energía es: V= (2.g.h)½ (elevado a 1/2 ó raíz cuadrada)

Midiendo directamente h, o hallando su valor a partir de l , @ (usando trigonometría) encontraremos V, que, sustituida en la primera fórmula, nos indicará el valor de la velocidad de la bala antes de producirse el impacto (g representa la aceleración de la gravedad, es decir, aproximadamente 9,8 m/seg²).

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA
TEORÍA GENERAL DE LA RELATIVIDAD FORMULADA POR ALBERT EINSTEIN

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando “revoleamos” una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o “empujados” contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue “la idea más feliz de mi vida“, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: “La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad”.

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS BÁSICOS DE LA TEORÍA TÓMICA: ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos. La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro. Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos. Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos). Hay “macromoléculas” formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico. Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles. Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción. Preparó un “código” en base a símbolos gráficos que utilizaba para representar la fórmula o “receta” por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.). Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.  Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O. Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados. De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos. El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada “conservación de la masa” y la otra la “ley de las proporciones definidas” que dicen:

1-Ley de la Conservación de la Masa: “En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)”.

2-Ley de las Proporciones Definidas: “Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas”.

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la “receta química” o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su “peso atómico” es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su “receta” o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante “ley”: “Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas”.

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
Agua H2O 18
Hidrógeno H2 2,0
Cloruro de hidrógeno ClH 36,5
Oxígeno O2 32,0
Ozono O3 48,0
Dióxido de azufre SO2 64
Trióxido de azufre SO3 80
Ácido sulfúrico S04H2 98
Amoníaco NH3 17
Pentóxido de fósforo P2O5 142
Trióxido de fósforo P2O3 110
Dióxido de carbono CO2 44
Trióxido de aluminio Al2O3 102
Óxido de calcio CaO 56
Carbonato de calcio C03Ca 100
Óxido cúprico OCu 80
Óxido ferroso OFe 72
Óxido férrico 03Fe2 160
Óxido mercúrico OHg 216
Hidróxido de potasit) KOH 56
Hidróxido de sodio NaOH 40
Clorato de potasio Cl03K 123
Cloruro de sodio CINa 58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Usos del Transbordador Espacial Misiones y Programas de la NASA

El Trasbordador Espacial
El Trasbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmico. El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.”El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo”, dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

Fundadores de la Quimica Moderna Lavoisier Boyle Grandes Quimicos

Fundadores de la Química Moderna Lavoisier y Boyle

La razón de que la química tardara tanto en hacer su propia revolución se debió al sujeto de su materia. Las pruebas que los astrónomos necesitaban las tenían ante sus ojos. Incluso sin la ayuda de un telescopio, Tycho Brahe fue capaz de acumular datos sobre los planetas que más tarde permitieron a Kepler deducir sus leyes de los movimientos planetarios.

Con su ayuda, Galileo pudo observar  los movimientos de los satélites de Júpiter. Y cuando utilizó su plano inclinado para experimentar con las leyes que rigen la caída de los cuerpos, se sirvió nuevamente de sus ojos para llegar a una verdad subyacente. Cuando Newton combinó las leyes de Galileo y de Kepler para formular su ley de la gravitación universal, aplicó el poder de su mente a las pruebas que veían sus ojos.

Los químicos no tenían tanta suerte: los hechos en química eran invisibles. Incluso el microscopio, que abrió nuevos mundos a los biólogos, le servía de muy poco a la química; revelaba estructuras desconocidas hasta ese momento y extrañas nuevas formas de vida, pero no ofrecía ninguna pista sobre la naturaleza de los materiales que las componían. Era perfectamente razonable, si uno se dejaba guiar por las apariencias, tratar el agua como un elemento igual que el oro o el azufre.

Observando el agua no hay manera de saber que es una combinación de dos gases o, mirando el aire, que es la mezcla de uno de esos gases y de un tercero; no importa que el gas común a los dos, al aire y al agua, esconda el secreto del fuego. Se necesitó un siglo de experimentos, del tipo defendido por Boyle, para que la química pasara de ser una investigación mágica a una ciencia respetable. Y gran parte de ese tiempo se dedicó a perseguir una quimera: la búsqueda de un «elemento» —el flogisto— que no existía.

DESDE STAHL HASTA LAVOISIER: Hacia 1720, las ideas teóricas de los químicos no se diferenciaban mucho de las que habían animado a PARACELSO. En cambio, hacia 1820 se habían vuelto, en sus rasgos esenciales, semejantes a las que profesamos hoy. Estos cien años, de los cuales la mayor parte pertenecen al siglo que estamos historiando, representan, pues, el período de la laboriosa gestación y del nacimiento de la química moderna.

Al igual que ARISTÓTELES, en los umbrales del siglo XVIII, los químicos consideraban el agua y el aire corno elementos y ensayaban describir las reacciones con la ayuda de principios marcadamente vitalistas. Las lecciones de BOYLE, con su clara concepción sobre el elemento químico, estaban olvidadas, y la teoría del flogisto, desarrollada por STAHL, sirvió para interpretar una gran parte de los fenómenos experimentales. (GEORG ERNST STAHL (1660-1734), médico del rey de Prusia, popularizó las ideas de su maestro JOHANN J. BECHER, dándoles forma más doctrinal.

Cuando los cuerpos, enseñó, arden o se calcinan, escapa de ellos un elemento vital, un principio ígneo, elflogisto; cuando se recupera por reducción la sustancia original, el flogisto es incorporado de nuevo al cuerpo. Los metales, que son cuerpos compuestos, pierden su flogisto al calentarse, convirtiéndose en cal metálica (óxido), pero basta calentar la cal con carbón u otro cuerpo rico en flogisto para ver regenerarse el metal original.

Por supuesto, STAHL no ignora que la combustión exige la presencia del aire, sin embargo su papel, aunque importante, es según STAHL, pasivo: en el vacío, el flogisto no puede separarse del cuerpo, y el aire es el que permite su escape, recogiéndolo. Sin duda, después de las investigaciones de MAYOW y BOYLE se sabía que los metales al quemarse aumentan de peso, hecho cardinal que los flogicistas se vieron obligados a ignorar o atribuir al flogisto un peso negativo, cosa que hicieron en efecto los más ortodoxos de sus filas. A pesar de todo, la teoría de STAHL, puramente cualitativa, que presentaba la realidad al revés, tiene el innegable mérito de haber unificado los fenómenos de calcinación y combustión que el siglo anterior todavía separaba.

La mayor parte de los grandes químicos de la época se adhirieron a la doctrina flogística, lo que, sin embargo, no les impidió realizar descubrimientos fundamentales. El inglés STEPHEN HALFS (1677-1761) creó los primeros dispositivos para recoger gases y preparó varios de éstos, pero sin reconocer las diferencias químicas entre las sustancias aeriformes. Pero JOSEPH BLACK, de quien ya hemos hablado, descubrió que el “aire fijo” —el anhídrido carbónico— posee propiedades muy distintas de las del aire común, y el inglés HENRY CAVENDISH (1731-1810), filósofo excéntrico y experimentador de primera magnitud, aisló y estudió el “aire inflamable” —el hidrógeno de hoy—, encontrando con el aire ordinario forma una mezcla explosiva.

El boticario sueco KARL WILHELM SCHEELE (1742-1786) e, pendientemente, el teólogo unitariano JOSEPH PRIESTLEY (1733-1804) obtuvieron, por calentamiento de óxido rojo de me y de otros óxidos, el “aire de fuego” o “aire desflogisticado”  decir, el oxígeno de nuestra nomenclatura. PRIESTLEY estableció con toda claridad que el oxígeno mantiene la combustión  y que la presencia de oxígeno es indispensable para la respiración de los seres vivientes.

Las investigaciones de CAVE SCHEELE y PRIESTLEY se entrecruzan y se completan. Al quemar “aire inflamable” en “aire desflogisticado” -esto es, hidrogeno en oxígeno—, CAVENDISH muestra que el producto de la combustión es agua. Si la proporción volumétrica del oxígeno y del hidrógeno es de 1 a 2, ambos gases, comprueba CAVENDISH, desaparecen para formar un peso de agua igual a la su los pesos de los dos gases.

Por otra parte, los experimentos de SCHEELE y de PRIESTLEY dejan fuera de duda que el aire es una mezcla de dos  gases. Así, agua y aire —dos “elementos aristotélicos”. terminan por revelarse cuerpos compuestos.

SCHEELE realizó un número extraordinario de hallazgos: descubrió la barita, el magnesio, el cloro; obtuvo muchos ácidos orgánicos e inorgánicos. La glicerina, la aldehída y la caseína se agregan a la sorprendente serie de sus descubrimientos.

Estos éxitos se acumularon hacia 1780 y enriquecieron incomparablemente el patrimonio de los conocimientos químicos de la humanidad. Sin embargo, todos estos grandes experimentadores mantuvieron la doctrina de STAHL. Revisar la teoría del flogisto y el concepto cardinal del elemento bajo la nueva luz de los conocimientos adquiridos, fue obra de LAVOISIER.

LAVOISIER: Al sintetizar los descubrimientos de sus predecesores, el químico francés ANTOINE LAURENT LAVOISIER (1743-1794) se atribuyó a veces laureles ajenos. La vanidad, que le hacía olvidar lo que debía a otros, echa sin duda sombras sobre su carácter, pero no disminuye sus auténticos méritos. Repitió cuidadosamente los experimentos de PRIESTLEY y CAVENDISH, probó que el aire es una mezcla de nitrógeno y oxígeno y que el agua es un compuesto de oxígeno e hidrógeno; demostró que en todos los casos de combustión el oxígeno se combina con la materia quemada Sostiene, pues, lo contrario de lo postulado por la doctrina de STAHL, según la cual la materia, en lugar de ganar, pierde una sustancia en la combustión. Balanza en mano, Lavoisier probó el aumento de peso.

De la explicación de las reacciones, LAVOISIER eliminó los entes inverificables e imaginarios para introducir el criterio cuantitativo, la determinación de los pesos, antes y después de la transformación Este criterio desde entonces será la guía suprema en la interpretación de los fenómenos químicos. Para realizar su gran révolution chimique no tuvo necesidad de invocar nuevos principios; le bastó recurrir al antiguo axioma de la conservación de la materia, para establecer lo que el buen sentido siempre había sugerido: “El peso del compuesto en las reacciones, es igual a la suma de los pesos de los componentes” .

A esta verdad agrega otra que el buen sentido no podía adivinar: “Los elementos siguen subsistiendo a través de todas las composiciones y descomposiciones”.

Sin duda, largo tiempo antes, BOYLE había formulado el concepto de elemento, mas no había dado una lista de las sustancias elementales, y los hechos empíricos a su disposición no bastaban para imponer a los investigadores la nueva noción. Con LAVOISIER llegó ese momento crucial en la historia de la química: definió los elementos como los últimos términos de la eficacia del análisis, como sustancias simples, que no podemos suponer compuestas hasta que “la experiencia nos demuestre que en realidad lo son”. Su célebre tabla de elementos, publicada en 1789, comprende 33 sustancias, de las cuales la gran mayoría todavía siguen siendo indescomponibles.

Todo el mundo conoce el trágico fin de LAVOISIER. Era uno de los fermiers généraux, arrendatarios de impuestos, y su Posición social lo expuso durante la Revolución francesa al odio popular. Condenado a la pena capital, fue enviado a la guillotina. “La República no necesita sabios”, dijo el juez.

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la Termodinámica Modelo Atómico de Bohr Cinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir “salvar los fenómenos” estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

“Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.”

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el “spin“, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son “permitidas” mientras que otras “permanecen prohibidas”.

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energia – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre