Particulas Elementales

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los «sistemas de conversión de energía eólica», sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan «no susceptible de ser dividido». Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

El Atomo Para Niños y Principiantes Explicación Sencilla

PARA NIÑOS: PARTÍCULAS Y ESTRUCTURA DEL ÁTOMO

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales, cuando vamos de paseo vemos correr el agua de un río, las piedras de grandes montañas, la tierra en los caminos, y seguramente vamos viajando sobre un automóvil que está construído con diversos y distintos materiales como: acero, plástico, tela, cuero, goma, etc. Pero bien,…esos materiales ¿de que están hechos?,….esa pregunta también se la hicieron hace unos 2500 años en Grecia Antigua, grandes hombres dedicados a la ciencia , como Thales de Mileto, Empédocles y Demócrito, todos ellos vivieron entre 600 y 400 antes de Cristo y aquí te los presento:

thales, empédocles y demócrito

Cada uno de ellos, y también otros pensadores mas, tenían su propia teoría o forma de explicar los elementos que constituían la materia, por ejemplo para Thales era el Agua, para Empédocles era no solo el Agua, sino también la Tierra, el Fuego y el Aire, es decir los cuatro elementos fundamentales.

Pero un día llegó el señor Demócrito de una ciudad griega llamada Abdera, y afirmó que para saber la composición de la materia, deberíamos ir cortándola por mitad sucesivamente. Imagina una hoja de papel que la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso?.

Según su idea, de dividir constantemente un cuerpo de cualquier material, obtendríamos un trozo cada vez mas pequeño, hasta obtener una porción mínima que seria imposible volver a cortarla es decir, esa porción seria INDIVISIBLE.  A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo.

Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto que tanto amaban los griegos en sus fogosas discusiones.

atomo democrito

Imagina que deseas conocer como está formada la manzana, para ello (según Demócrito) debes cortar indefinidamente la misma hasta llegar a una mínima porción «atómica», y ese es el elemento fundamental con la que está consituída la fruta.

El mundo material, el mundo que nuestros sentidos conocen está formado por gases, como el oxígeno de aire que respiramos en este momento o el hidrógeno, de líquidos, como el agua o el alcohol, de sólidos, como el hierro o el azúcar, o de las hojas, flores y frutos de un árbol, todos no son más que diferentes agrupaciones de un número inmenso de pequeñísimos de esos corpúsculos llamados átomos.

Los átomos son muy poco diferentes los unos de los otros, por ejemplo hay átomos del material HIERRO, átomos de OXIGENO, átomos de COBRE, átomos de CARBONO, etc. En la naturaleza hay 103 elementos conocidos, entre naturales y artificiales (porque los ha hecho el hombre en el laboratorio, hoy puede haber algunos más).

Despúes de muchos años de experimentos e investigaciones los físicos del siglo XX pudieron penetrar dentro de «esa porción indivisible»,  y observaron que además existían otras partículas aún más pequeñas que los átomos y que eran las partes constituyentes del mismo.

La forma de dibujar un átomo, es la siguiente:

esquema de un átomo

Los científicos notaron que el átomo tiene en su centro casi una «esferita» que en su interior contiene dos partículas llamada: PROTONES Y NEUTRONES.

Por otro lado también observaron que alrededor de ese núcleo, giraban a gran velocidad otras partículas más pequeñas que las del núcleo y las llamaron: ELECTRONES.

Las partículas ELECTRÓN Y PROTÓN, tienen una carga eléctrica, en el primero la carga es NEGATIVA y el segundo la carga eléctrica es POSITIVA. Los NEUTRONES no poseen carga y el nombre deriva de la palabra «neutro».

El atómo está equilibrado eléctricamente, es decir por ejemplo, que si hay 10 electrones girando (10 cargas negativas), también ese átomo tiene 1o protones en su núcleo (10 cargas positivas)

En el esquema de abajo, vemos el átomo de HELIO, material con que están hechas las estrellas. Tiene dos protones y dos electrones. La cantidad de neutrones es variable, aqui también tiene dos.

composicion del atomo: protones, neutrones, electrones

¿Que es lo que hace que un material sea Hierro, otro Helio y otro por ejemplo Oro?…LA CANTIDAD DE PROTONES contenidos en el núcleo, cantidad que se denomina: NÚMERO ATÓMICO, en el caso del esquema: Na=2

A la suma de la cantidad de protones mas neutrones la llamamos: NUMERO MÁSICO, y en el caso que nos ocupa es: Nm=2+2=4.-

Esos mas de 100 elementos que forman la naturaleza, fueron agrupados en una tabla para ser estudiados y se la llama: Tabla Periódica de los Elementos Químicos o también Tabla de Mendeleiev

tabla de mendeliev

Ampliar Esta Tabla

Observa que cada elemento (químico) tiene una ubicación, y el orden es por el Número Atómico de cada elemento: primero es el HIDRÓGENO, con un protón, le sigue el HELIO con dos protones, luego el LITIO con tres protones, el BERILIO con cuatro protones, y asi hasta el último elemento N° 103 , llamado LAWRENCIO. Hay otros números en columna a la derecha, que luego veremos y nos muestra las capas y subcapas de los electrones. Los colores de los grupos es para diferenciar los tipos de elementos, entre alcalinos, lantánidos, no metales, metales ,etc. cada uno con sus propias características, como el brillo, conductividad electrica, etc.

estructura atomo de hidrógeno

LAS MEDIDAS DEL ÁTOMO:

Para los seres humanos es muy díficil imaginar distancias tan pequeñas, como es de la partículas atómicas, pero podemos decir que esas partículas, tienen un diámetro medio de unas diez millonésimas de milímetro, se necesitarían más de diez millones de ellas colocadas en línea recta para tener un milímetro de longitud.

1 mm.= 10.000.000 de partículas

El núcleo, que es parte predominante, es decir, la mas grande, de forma esférica, que posee un radio de unos  0,0000000000001 centímetros, UN UNO CON TRECE CEROS, como se puede ver es una medida sumamente chica para poder imaginarla. El diámetro de los electrones es aún mas pequeño.

Respecto al peso de esas partículas, no vamos a dar números, pero es un UNO CON VEINTIOCHO CEROS de gramo, y el peso del protón es 1836 veces el peso del eléctrón. A este concepto le llamamos MASA DE LA PARTÍCULA.

Dijimos que los electrones giran muy rapidamente alrededor del nucleo, en una trayectoria circular, y el radio de esa circuferencia es de UN UNO CON 11 CEROS de metro, 0,00000000001 m. Para las dimensiones del átomo esa medida es grande, porque esa medidas es 25.000 veces mas grande que el radio del núcleo.

Para llevarlo a una escala «mas humana», piensa que si el nucleo tiene la medida de una moneda, el radio del electrón seria de unos 250 metros.

Presentamos un esquema aproximado de las dimensiones a modo de aclarar un poco mas la idea, pero como consejo solo trata solo de recordar que un átomo mide 10.000.000 veces que 1 metro.

ESQUEMA medidas del atomo

NIVELES DE ENERGIA DE LOS ELECTRONES

Debemos aclarar que esas partículas son tan pequeñas que no pueden observarse, y cuando enviamos un rayo de luz para intentar verla, esa partícula cambia de posición en el mismo instante, entonces es imposible hablar de la posición exacta en el espacio que rodea al núcleo. Como consecuencia nació a principio del siglo XX una nueva física, conocida como física cuántica, que recurre a la PROBABILIDAD  de encontrar o «ver» un electrón en la región que rodea al núcleo de un átomo.

A partir de ese concepto hablamos de la CERTEZA de que un electrón se encuentre girando en cierta área que rodea al núcleo. Existen varias áreas o regiones de giro, y cada una le corresponde lo que llamamos NIVEL DE ENERGIA, para cada nivel hay un NÚMERO MAXIMO de electrones que pueden girar. Hay una fórmula muy simple que permite determinar la cantidad de electrones por nivel de energía o CAPA, y es la siguiente: 2.n².

Observa como se calcula el número de electrones por cada nivel en el esquema de abajo, usando la fórmula anterior.

niveles de energia de los electrones

Y finalmente cada nivel tiene un subnivel o subcapa que también permite que en esa zona giren electrones, a cada subnivel se lo llama. s , p , d , f, y el máximo de electrones es de 2, 6, 10 y 14 respectivamente.

Puedes observar la tabla siguiente:

tabla de subniveles de energia atomica

Resumiendo lo antedicho, podemos concluír que:

Entonces para el nivel es el 1, sabemos que solo puede contener 2 electrones, por lo que el nivel 1 tiene una subcapa llamada s, que permite 2 electrones.

Para el nivel 2, la cantidad de electrones es de 8, por lo que tendrá dos capas, la s y la p, con 2 y 6 electrones, es decir 8 en total.

Para el nivel 3 , la cantidad de electrones es de 18, entoces tendra tres capas, s, p y d , con 2, 6 y 10  electrones y l suma es 18.

En la tabla siguiente lo podemos analizar mas fácil, para tres capas.

tabla de capas y subcapas de los atomo

Entonces veamos por ejemplo ahora el átomo de NIQUEL, que según la tabla de los elementos nos indica que tiene 28 protones, entonces el numero de electrones también será de 28, y estarán ubicados de la siguiente manera:

En el NIVEL 1, tendrá 2 en la subcapa s , + NIVEL 2 con 8 en dos cubcapas ( s, p)  + NIVEL 3 con 18 en tres subcapas (s,p,d), cuya suma es de 28 electrones.

AMPLIACIÓN SOBRE LA ENERGÍA NUCLEAR: Los átomos de un elemento tienen siempre el mismo número atómico, pero pueden poseer distinto número de masa, por contar con un número diferente de neutrones; tales átomos se denominan isótopos.

El edificio del átomo, centro de enormes fuerzas que se ejercen entre cargas opuestas, no presenta una estabilidad ilimitada. El núcleo puede desintegrarse y liberar energía atómica, más correctamente energía nuclear, pues el proceso tiene lugar directamente en el núcleo del átomo.

Los fenómenos que conducen a la liberación de tal energía son la fisión y la fusión de núcleos. La fisión, traducción fonética de la voz inglesa fission, significa escisión, división o partición de la masa de un núcleo pesado en dos fragmentos, que originan los núcleos de otros dos átomos más livianos y de pesos atómicos más o menos iguales, y la fusión, unión de dos núcleos de átomos livianos para formar el núcleo de uno más pesado.

En ambos casds, la liberación de cantidades extraordinarias de energía se debe a la transformación de cierta cantidad de masa de los núcleos de los átomos originales de energía. Esta se determina por medio de la fórmula:

E = m.c², establecida por Albert Einstein.

En ella, E es la energía liberada, m la masa transformada y c la velocidad de la luz. Gracias a dicha transformación, destrucción o aniquilamiento de la masa o materia se puede, de una pequeña cantidad de ella, obtener una cantidad enorme de energía. Así, de la fisión de 1 kilogramo de uranio puede obtenerse una cantidad de energía equivalente a la que produce la combustión de 2.500 toneladas de carbón.

Las aplicaciones de la energía nuclear son numerosas. La bomba atómica o bomba A y la bomba de hidrógeno o bomba H se pueden emplear para excavar grandes canales, demoler rocas, etc. Los reactores nucleares sirven para producir energía eléctrica, así como para propulsar buques. También se utilizan piara obtener isótopos artificiales que tienen aplicaciones en medicina, agricultura e industria.

Fuente Consultada:
CIENCIA JOVEN Diccionarios Enciclopedico Tomo V – El Átomo y su Energía-

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 «Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico».

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la «teoría de la relatividad», la cual amplió en 1916 («teoría general de la relatividad»). En 1912 formuló la «ley de los efectos fotoeléctricos». A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 «Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía».
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como «secretario perpetuo» de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la «teoría de los cuantos», la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 «Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel»

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su «Tratado sobre la radiactividad» y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: «Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre».
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó «rayos X», porque desconocía su naturaleza (también conocidos en la época como «rayos Róntgen»).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: «Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica».
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Fuerzas en un Plano Inclinado Descomposicion del Peso

FUERZAS EN UN PLANO INCLINADO
Descomposición de un Peso en un Plano Inclinado

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión.

No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo.

Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso.

Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py.

Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py.

Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, [email protected] (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @.

Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

Ver Una Animacion de Flash

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo.

En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente.

El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra.

Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié» puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Concepto de Fuerza Centrífuga Aplicaciones Prácticas

Concepto de Fuerza Centrífuga – Aplicaciones Prácticas

Si se hace girar con rapidez un balde parcialmente lleno de agua, con los brazos extendidos alrededor del cuerpo, el contenido no se derrama, aun cuando el balde esté volcado sobre un costado. El principio responsable de este fenómeno es conocido por los físicos con el nombre de fuerza centrifuga.

Al mismo tiempo que se hace girar el balde, el agua tiende a permanecer dentro de éste, presionada hacia el fondo (es decir, hacia afuera con respecto a quien hace girar el balde) o al centro de giro por la fuerza centrífuga. Este es un ejemplo bastante directo de como se origina esta fuerza, aunque hay muchas otras aplicaciones más prácticas.

Sabemos, según las leyes de los cuerpos en movimiento, enunciadas por Isaac Newton, que las fuerzas siempre se originan por pares, siendo cada una de las mismas de igual valor y sentido contrario. La fuerza que se necesita para mantener un cuerpo que gira dentro de su trayectoria, evitando que se vaya hacia afuera, se conoce como fuerza centrípeta y es igual pero de sentido contrario a la fuerza centrífuga.

Fuerza centrífuga en un balde girando. El agua no sale del balde porque es empujada hacia el exterior o fondo.

En el caso del ejemplo mencionado, esta fuerza centrípeta se manifiesta como el esfuerzo realizado por el brazo para sostener el balde. Podemos ver, bastante fácilmente, cómo estas fuerzas se relacionan con la velocidad a la cual el objeto se mueve dentro de su órbita. Un ejemplo emocionante lo constituye, en el espec táculo circense, un motociclista que da vueltas dentro de una gran esfera de malla metálica.

Cuando su máquina se mueve lentamente, el motociclista no puede subir muy alto, pero a velocidades mayores la fuerza centrífuga que tiende a lanzarlo hacia afuera es tan grande, que puede trepar verticalmente hasta la cúspide de la esfera y girar sin perder contacto con la «pista», a pesar de desplazarse «cabeza abajo».

La inclinación que se observa en las curvas de las vías férreas obedece al mismo principio: la fuerza centrífuga que impulsa hacía afuera al tren cuando éste toma la curva, es contrarrestada por la fuerza centrípeta que se manifiesta cuando el costado de las ruedas presiona sobre los rieles. Este esfuerzo se reduce considerablemente inclinando las vías en un cierto ángulo, de modo que el riel exterior (el más alejado del centro de la curva) esté a mayor altura que el interior.

Otro ejemplo parecido lo constituye aquella famosa primera pista de Avus, en Alemania, donde ya en el año 1937, los promedios de velocidad establecidos por los coches de carrera llegaban a 261 Km./h., con records hasta de 280 Km./h. Esto podía lograrse porque aquella pista tenía curvas construidas con un extraordinario peralte que llegaba a los 45 grados. De esta manera, se conseguía precisamente vencer la gran fuerza centrífuga que esas velocidades provocaban en los giros. Una idea de dicha fuerza la da el cálculo de que, en el momento de paso sobre la curva, los neumáticos debían soportar nada menos que 3 veces el peso de la máquina.

Peralte o Inclinacion de la Carretera

Los llamados trajes de presión, creados por los japoneses durante la segunda guerra mundial y adoptados luego por casi todas las demás fuerzas aéreas, constituyen una solución bastante aceptable al problema de la tremenda fuerza centrífuga a que está sometido el piloto en un combate aéreo. Este traje evita que, en los giros violentos, la sangre se desplace y se agolpe por centrifugación, con el consiguiente desvanecimiento y pérdida momentánea de la visión. Pero no siempre ¡a fuerza centrífuga resulta negativa; muchas veces el hombre se vale de ella para obtener provecho.

Un buen ejemplo de aplicación práctica de este principio lo tenemos en el aparato denominado centrifuga. Si tenemos una suspensión de un sólido en un líquido, o una mezcla de líquidos de diferentes densidades, es decir, que tienen relaciones diferentes de peso a volumen (por ejemplo crema y leche), y que han sido mezclados hasta formar una emulsión, podemos separarla si la dejamos reposar tiempo suficiente.

Una centrifugadora es una máquina que pone en rotación una muestra para –por fuerza centrífuga– acelerar la decantación o la sedimentación de sus componentes o fases (generalmente una sólida y una líquida), según su densidad. Existen diversos tipos, comúnmente para objetivos específicos.

La atracción que ejerce la gravedad sobre la leche es mayor que sobre la crema, menos densa, que va a la superficie. Este proceso se puede acelerar centrifugando la mezcla (estas centrifugadoras tienen la forma de un cuenco que gira rápidamente). De este modo la leche es impulsada más lejos del centro que la crema, la cual, por no ser tan densa, no sufre con tanta intensidad los efectos de la fuerza centrífuga que se origina.

También bombas centrífugas y turbinas centrífugas que trabajan con líquidos y aire, respectivamente, son un acierto mecánico. Debemos recordar que los turborreactores centrífugos reciben este nombre porque su alimentación de aire lo produce una turbina de ese tipo.

Bomba centrifugadora

En la fundición de metales, las inyectaras centrífugas son insustituibles por la precisión, seguridad y calidad de los colados. Este tipo de inyectora recibe el metal fundido por un tragadero central, y mantiene adosada una batería de matrices a su contorno. Girando a gran velocidad, el metal es centrifugado con gran presión, e inyectado al interior de las matrices.

RAZÓN POR LA CUAL LA TIERRA NO ES ATRAÍDA POR EL SOL

Esquema Sistema Tierra-Sol

Esto se debe a que, a pesar de la atracción gravitacional (fuerza de gravedad) la fuerza centrífuga tiende constantemente a empujar a la Tierra hacia afuera. En este caso, las dos fuerzas están equilibradas. La fuerza de gravedad entre el Sol y la Tierra actúa como una fuerza centrípeta, que tiende a atraer al planeta, que gira en su órbita, hacia el Sol. La fuerza centrífuga originada por el movimiento de rotación, tiende a empujar al planeta en sentido contrario, es decir, fuera del Sol., El resultado es que la distancia entre el Sol y la Tierra se mantiene constante, suponiendo que la velocidad del planeta también se mantenga igual (en realidad, la velocidad de la Tierra sufre pequeñas variaciones, con la consiguiente alteración en la distancia al Sol). El mismo principio se aplica a los satélites artificiales que se ponen en órbita para girar alrededor de la Tierra. La atracción de la gravedad equilibra las fuerzas centrífugas, y los satélites pueden moverse a distancia más o menos constante de la Tierra, «suponiendo que su velocidad sea también constante». De todos modos, la velocidad se reduce gradualmente, a causa del rozamiento con la atmósfera, y los satélites tienden a caer hacia la Tierra.

Formula de la Fuerza Centrípeta:

Diagrama de un cuerpo girando, Fuerza Centrifuga

Ejemplo: si se toma una piedra de 2 Kg. de masa, atada a una cuerda y se la hace girar con un radio de 1,2 m. a razon de 2 vueltas por segundo. Cuanto vale la fuerza centrífuga que debe soportar la cuerda?.

La masa es de 2 Kg., el radio: 1,20 metro, pero nos falta la velocidad tangencial Ve, pues la del problema es la velocidad angular.

Para ello se sabe que dá dos vueltas en un segundo, entonces el recorrido es, dos veces el perímetro de la circunferencia por segundo. Podemos hallarlo asi: 3.14. 1.2. 2=7.53 m. cada vuelta , por dos es: 15,07 m. distancia que la masa recorre en 1 segundo, por lo tanto la velocidad tangencial es: 15,07 m/seg.

Aplicando la formula se tiene que Fc= ( 15,07 )². 2 /1,2² =454/1.44=315,27 Newton

Fuente Consultada:
Revista TECNIRAMA N°21 Enciclopedia de la Ciencia y La Tecnología -La Fuerza Centrífuga-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

Primeros Huevos de Dinosaurios Encontrados Fosilizados

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurios fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de «colonia infantil», o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor («ladrón de huevos»), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

Cálculo del Radio de la Orbita en el Átomo de Hidrógeno

Cálculo del radio de la primera órbita del átomo de hidrógeno

Como es sabido, un átomo puede compararse a un sistema solar en miniatura. El centro, o núcleo, es relativamente pesado y estacionario, mientras que los electrones giran alrededor, en forma similar a como los planetas giran alrededor del Sol.

En general, las distancias electrón-núcleo son del orden de  10-8 cm, 0,00000001 cm.

esquema radio del hidrogeno

En un átomo la fuerza que mantiene a los electrones en sus órbitas no es gravitatoria, sino de naturaleza electrostática, ya que el protón (único componente del núcleo en el átomo de hidrógeno) y el electrón tienen cargas contrarias.

Neils Borh

Niels Bohr

Al igual que la fuerza gravitatoria, la electrostático es inversamente proporcional al cuadrado de las distancias.

Teniendo en cuenta que en una órbita circular la fuerza centrípeta está constituida por esta fuerza de atracción electrostática, e introduciendo el postulado de Niels Bohr, que establece que el momento angular del electrón en una órbita circular está cuantificado, es decir, sólo puede alcanzar valores enteros de h/2.¶ , donde h es la constante de Planck,   obtendríamos  la  siguiente expresión:

formula radio orbita del hidrogeno

que nos permite hallar para la distancia requerida el valor de 5.28.10-9 cm., sustituyendo las constantes n (en este caso es igual a 1, por ser la primera órbita), h (constante de Planck), m y e (masa y carga del electrón) por sus valores respectivos.

Valores de:
h=6.62606957 ×10 -34 J×s
m=9,109 382 91×10−31 Kg.
e=1,602 × 10-19 culombios

El valor obtenido, conocido como radio de Borh es: 5,291 772 0859×10−11 m.

 

Calcular la Velocidad de Una Bala Pendulo Balistico Método

Método Para Calcular la Velocidad de Una Bala
El Péndulo Balístico

HALLAR LA VELOCIDAD DE UNA BALA: La velocidad de una bala de rifle o de pistola puede medirse con un aparato llamado péndulo balístico. Consiste en esencia de un bloque de madera o dé plomo, de masa M, suspendido por una cuerda, como se indica en la figura.

pednulo balistico calcula velocidad de una bala

Si disparamos una bala de rifle de masa m y velocidad v contra dicho bloque, obligaremos a éste a recorrer el arco @, que puede ser medido fácilmente. Cuando la bala ha penetrado en el bloque, el conjunto se mueve con una velocidad V, y de acuerdo con el principio de conservación de la cantidad de movimiento, podemos escribir:

m . v = (M + m).V

Para hallar el valor de v, velocidad del proyectil antes de que se produzca el impacto, sólo nos resta pues conocer el valor de V, velocidad del conjunto después de que la balo se ha incrustado en el bloque.

Esta velocidad se puede hallar fácilmente aplicando el principio de conservación de la energía al movimiento de (M+ m) desde A, donde la energía es totalmente cinética (y potencial nula), hasta el final de su recorrido B, donde toda la energía es potencial (y cinética cero)

1/2 (M + m) V² = (M + m) g. h

Despejando V de esta fórmula de conservación de la energía es: V= (2.g.h)½ (elevado a 1/2 ó raíz cuadrada)

Midiendo directamente h, o hallando su valor a partir de l , @ (usando trigonometría) encontraremos V, que, sustituida en la primera fórmula, nos indicará el valor de la velocidad de la bala antes de producirse el impacto (g representa la aceleración de la gravedad, es decir, aproximadamente 9,8 m/seg²).

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR
La Naturaleza de la Luz

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar «qué pasaría si …» ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el «gran océano de la verdad estaba sin ser descubierto» delante de él. El científico siempre trabaja en las orillas del «gran océano de la verdad», esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban «qué pasaría si . . .» expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

«En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.»

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

«El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano»

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado «Óptica», éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio «vacío». Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS Y LEYES DE LA TEORÍA TÓMICA:

ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos.

La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? .

Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro.

Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos.

Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos).

Hay «macromoléculas» formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico.

Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles.

Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción.

Preparó un «código» en base a símbolos gráficos que utilizaba para representar la fórmula o «receta» por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.).

Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.

Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O.

Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados.

De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos.

El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada «conservación de la masa» y la otra la «ley de las proporciones definidas» que dicen:

1-Ley de la Conservación de la Masa: «En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)».

2-Ley de las Proporciones Definidas: «Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas».

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la «receta química» o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su «peso atómico» es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su «receta» o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante «ley»: «Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas».

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
AguaH2O18
HidrógenoH22,0
Cloruro de hidrógenoClH36,5
OxígenoO232,0
OzonoO348,0
Dióxido de azufreSO264
Trióxido de azufreSO380
Ácido sulfúricoS04H298
AmoníacoNH317
Pentóxido de fósforoP2O5142
Trióxido de fósforoP2O3110
Dióxido de carbonoCO244
Trióxido de aluminioAl2O3102
Óxido de calcioCaO56
Carbonato de calcioC03Ca100
Óxido cúpricoOCu80
Óxido ferrosoOFe72
Óxido férrico03Fe2160
Óxido mercúricoOHg216
Hidróxido de potasit)KOH56
Hidróxido de sodioNaOH40
Clorato de potasioCl03K123
Cloruro de sodioCINa58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada

Feymann Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología
Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método cientí

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la TermodinámicaModelo Atómico de BohrCinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir «salvar los fenómenos» estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

«Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.»

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el «spin«, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son «permitidas» mientras que otras «permanecen prohibidas».

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Biografía Rutherford Modelo Atomico Configuración del Atomo

Biografía Rutherford – Modelo Atómico

Temas Relacionados:  ¿Que es un átomo?  Energía Nuclear   Física Moderna  Fisión Nuclear

Ernesto Rutherford (1871-1937) fue uno de los mayores científicos experimentales de todos los tiempos. Nació enBrightwater, cerca de Nelson (Nueva Zelandia), de una familia de colonos ingleses.

Aunque fue un buen alumno en la escuela, Ernesto no mostró una especial inclinación por la ciencia. En 1890, ingresó en el Canterbury College, de Christchurch, Nueva Zelandia, donde su aptitud científica se hizo patente, graduándose con las mejores notas, tanto en ciencias como en matemáticas.

Continuó en Christchurch en trabajos de investigación, y desarrolló un detector de ondas de radio, que dependía de la magnetización del hierro. En 1894, la Universidad de Cambridge, en Inglaterra, sacó a concurso una beca con destino a un posgraduado de Nueva Zelandia, y Rutherford la ganó. Llegó a Inglaterra en 1895, tras pedir dinero prestado para el viaje.

ruthenford ernest fisico

Inicia su formación profesional en Nueva Zelandia y la completa en la Universidad de Cambridge, Gran Bretaña. Haciendo acopio de los descubrimientos de Von Róntgen, Becquerel y los esposos Curie, llega a desarrollar el primer modelo nuclear de representación del átomo. Recientemente J. J. Thomson había elaborado el primer modelo de átomo, en donde no se le consideraba como una partícula indivisible. Tras el descubrimiento del electrón, Thomson es el primero en presentar al átomo como una estructura. Rutherford va más lejos, al proponer que dichos electrones giran alrededor de un núcleo, describiendo órbitas similares a las del sistema solar.

En Cambridge, J. J. Thomson era profesor del famoso laboratorio Cavendish, y, en aquel tiempo, estaba trabajando en experimentos sobre la conducta de los gases después de ser expuestos a los recientemente descubiertos rayos X. Rutherford dejó de trabajar en su detector de radio-ondas, que eventualmente Marconi tuvo en cuenta y a partir del cual se estableció la potencialidad de las emisiones de radio, y se unió a J. J. Thomson en su trabajo.

Cuando Rutherford estaba colaborando con Thomson en sus experimentos, en 1896, se anunció en París el descubrimiento de la radiactividad. En 1897, Thomson hizo pública su demostración de la existencia de los electrones, pero Rutherford estaba ya trabajando en experimentos sobre la conducta de los gases, después de haber sido expuestos a la radiactividad.

Durante estos años, observó muchas de las propiedades de ésta, y se familiarizó con los métodos experimentales de dicha ciencia. En 1898, Rutherford solicitó una plaza de profesor de investigación en la Universidad de McGill, de Montreal (Canadá), lográndola cuando tenía 28 años de edad, y dando comienzo así al primer gran período de descubrimientos científicos de su vida.

En 1901, el químico inglés F. W. Soddy colaboró con Rutherford en sus investigaciones sobre radiactividad, y, al cabo de un año, comprobaron que un átomo rErnesto Rutherford fisicoadiactivo se transforma en otro átomo diferente por emisión de radiación. Juntos, publicaron trabajos sobre la causa y naturaleza de la radiactividad, y acerca de la teoría de la «transformación espontánea».

Rutherford también se preocupó de las partículas alfa (las partículas beta fueron identificadas por entonces como electrones), y publicó un trabajo general sobre los cambios radiactivos, en 1903. En 1904, dio a la imprenta su primer libro, titulado Radiactividad.

En cinco años, Rutherford, con la ayuda de Soddy, resolvió muchos problemas de esta nueva ciencia, observando que los átomos radiactivos se transforman espontáneamente en otros átomos, y definió el concepto de isótopos.

En 1906, la Universidad de Manchester le ofreció ocupar la cátedra de un profesor que había prometido jubilarse si Rutherford aceptaba. Rutherford aceptó, y, en 1907, se trasladó a Manchester, que tenía laboratorios nuevos y bien equipados.

Aquí empezó su segundo período de descubrimientos, probablemente el más importante y de seguro el más feliz de su vida.

Se encontró que, cuando una hoja metálica era bombardeada por partículas alfa, la mayor parte de estas partículas no se desviaban, o se desviaban en ángulos muy pequeños, cuando pasaban a través de la hoja. Sin embargo, algunas se desviaban un gran ángulo, y, en realidad, eran rechazadas por la hoja. Rutherford probó, matemáticamente, que tal comportamiento sólo se podía explicar con su modelo del átomo «nuclear», es decir, un átomo en que un pequeño núcleo cargado positivamente está rodeado de un número de electrones. Cuando las partículas alfa pasan cerca del núcleo, son repelidas fuertemente (las cargas positivas se repelen entre sí), produciéndose un gran cambio de dirección. Cuando pasan a mayor distancia del núcleo, la desviación es muy pequeña.

En 1908, Rutherford recibió el Premio Nobel de Química, por sus trabajos en radiactividad, estando, por entonces, ocupado en investigar las propiedades de las partículas alfa, con la colaboración de varios de sus quince alumnos. Una serie de experimentos le llevó a la conclusión de que dichas partículas eran, en realidad, átomos de helio, y para probarlo efectuó en 1909 una sencilla e inteligente experiencia.

Puso una sustancia (radón), que emitía partículas alfa, fuera de un tubo donde se había hecho el vacío y se había cerrado después, teniendo un electrodo metálico en cada extremo. Pasados unos días, se aplicó una corriente de alto voltaje a los electrodos metálicos, y el espectro de la descarga eléctrica obtenida probó, sin duda alguna, la existencia de átomos de helio en el tubo, Las partículas alfa debían haber atravesado las paredes del tubo, almacenándose allí, y las partículas alfa tenían que ser átomos de helio. En realidad, sabemos hoy que las partículas alfa son núcleos de helio.

En 1911, Rutherford propuso su idea más revolucionaria relativa a la existencia del núcleo atómico. Hasta entonces se creía que el átomo era una esfera cargada positivamente, con electrones cargados negativamente, moviéndose en su interior. Dos de sus colaboradores descubrieron que, cuando se dejaba que muchas partículas alfa chocasen con una hoja fina de metal, varias de las partículas retrocedían, saltaban hacia atrás. Para explicarlo, Rutherford supuso que la carga positiva total del átomo se concentraba en un núcleo muy pequeño y que los electrones ocupaban el espacio externo del núcleo.

Esto, en 1911, era una idea revolucionaria, aunque hoy día está totalmente aceptada, y se la ha aceptado como el mayor cambio ocurrido en nuestra idea sobre la materia, desde el tiempo de los griegos. Esta teoría del núcleo sentó las bases para una nueva ciencia: la física nuclear.

En 1912, Niels Bohr, el gran científico danés, se unió a Rutherford, y desarrollaron el modelo atómico de Bohr, con lo que se logró una aceptación general del átomo nuclear. En 1914, estalló la primera guerra mundial, y los científicos hubieron de abandonar los laboratorios. Tras algún tiempo de ausencia de Manchester, Rutherford volvió a su investigación académica, en el laboratorio desierto, dando comienzo a su tercer período de descubrimientos. Y, en 1918, ya estaba convencido de que podía demostrar experimentalmente la trasmutación artificial del nitrógeno (es decir, el cambio del átomo de nitrógeno en un átomo diferente).

Rutherford sólo puede ser igualado por Faraday en lo que respecte a la sencillez de los aparatos empleados, y su claro visión del significado de ¡os resultados experimentales. Sus tres grandes contribuciones a la teoría atómica fueron:
1°) Descubrió las leyes principales de la radiactividad y la Química de los elementos radiactivos naturales (1901-1906); 2°) descubrió el «núcleo» y ayudó al desarrollo del modelo nuclear del átomo (1909-1914), y 3°) descubrió la «trasmutación artificial» del nitrógeno (1917-1920).Rutherford estableció la naturaleza de las partículas alfa, recogiéndolas en un tubo de vidrio donde se había hecho el vacío.  Pasados unos días, el nivel de mercurio se había elevado, desplazando las partículas hacia la parte superior del tubo. El espectro de descarga entre los electrodos indicó la presencia de helio.

En 1919, Rutherford fue nombrado profesor del laboratorio Cavendish, de Cambridge, y rápidamente confirmó la certeza de dicha trasmutación artificial del nitrógeno. Para ello, hizo pasar partículas alfa provenientes del polonio, a través del gas nitrógeno; cuando una de ellas chocaba con un núcleo de nitrógeno, se desprendía un núcleo de hidrógeno y se formaba un núcleo de oxígeno. En 1920, llamó al núcleo de hidrógeno protón.

Y, pese a la gran cantidad de trabajo experimental que desarrollaba, Rutherford se encontró más ocupado cada vez en dirigir y organizar la investigación científica. El Cavendish creció en tamaño y fama bajo su dirección, pero ahora los descubrimientos eran realizados por la serie de hombres que trabajaban a sus órdenes, a los que él ayudaba con entusiasmo e interés.

Ernesto Rutherford fue presidente de la Royal Society, desde 1925 a 1930, y, en 1931, fueron reconocidos públicamente sus grandes descubrimientos, mediante la concesión del título de Barón Rutherford de Nelson.

En plena actividad y con creciente optimismo en sus empresas científicas, la muerte sorprende a Rutherford, luego de una breve enfermedad, en octubre de 1937, siendo sus restos depositados en la abadía de Westminster.

DETECCIÓN DE PARTÍCULAS ALFA

esquema deteccion particula alfa
Una partícula alfa se puede detectar cuando choca con una pantalla de sulfuro de cinc, ya que produce una luz observable a través de un ocular (izquierda). Este método fue empleado por William Crookes. Ernesto Rutherford, junto con H. Geiger, inventó un método eléctrico para detectar partículas simples. En el aparato (derecha), se introducían, por unos instantes, partículas alfa en la cámara «C». En esta cámara, el cilindro metálico «M» rodeaba el alambre aislado «W», y se aplicaba un voltaje alto entre «M» y «W». Cuando una partícula alfa chocaba con una molécula de gas en «C», la molécula perdía un electrón, y éste electrón era acelerado en el campo eléctrico, chocando con una segunda molécula de gas, con lo que se liberaba un segundo electrón. Y volvía a repetirse, varias veces, toda la operación. De esta manera, se obtenía un flujo de electrones, que podía detectarse como un impulso eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°60
El Estallido Científico en el Siglo XX Trevor Williams

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton «estaba mal» y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es «incorrecta», da la impresión de que entonces la teoría de Einstein es la «correcta».  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein «está mal» en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Resumen Explicación Buscando el Eter

Resumen del Experimento de Michelson Morley
Explicación de la Búsqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania.

Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.

Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia).

Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra.

Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas («corpúsculos») y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una «cosa» no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz.

A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro.

Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el «adelante»), mientras que los que más tardaran en llegar indicarían el «arriba».

Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas.

Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado «Sobre la electrodinámica de los cuerpos en movimiento» en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por «inerte» se quiere decir «a velocidad constante»). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es «relativo» al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro «Nueva Guía para la Ciencia» de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean «digeridos» por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Resumen Los Estados de la Materia y Sus Propiedades Cuadro Sinóptico

Resumen De Los Estados de la Materia
Sus Propiedades  – Cuadro Sinóptico

¿QUE ES LA MATERIA?

Hace miles de millones de años, el Universo estaba reducido a un pequeño volumen con densidad y temperatura infinitas. Luego de la Gran Explosión (Big Bang) , materia y energía se expandieron, formando poco a poco el Universo tal como lo conocemos. ¿Pero qué es la materia? ¿Y la energía?. Estos dos términos, materia y energía, están incorporados a nuestro lenguaje cotidiano, sin embargo, cuando queremos definirlos las cosas se complican.

La manera más aproximada de definir la materia es decir que es todo aquello que tiene masa, que ocupa un lugar en el espacio y que es perceptible, o sea, que puede impresionar directa o indirectamente nuestros sentidos.»

Si pudieramos introducirnos dentro de la materia demuestraríamos que la misma está constituida por estructuras infinitamente pequeñas, los átomos. En el átomo pueden distinguirse una parte central o núcleo, formada por dos tipos de partículas subatómicas, los neutrones y los protones, y rodeada por una nube de otras partículas subatómicas, los electrones, que se desplazan alrededor del núcleo en regiones del espacio llamadas orbitales.(sobre esto hablaremos mas abajo).

Todo el Universo está formado por materia. Una porción limitada de materia constituye un cuerpo.

La materia está formada, en general, por una mezcla más o menos compleja de diferentes sustancias. El aire que respiramos, el agua que bebemos, prácticamente todo lo que nos rodea en la vida es materia compleja, aunque a veces pueda parecer lo contrario. Existen muy pocos casos en la naturaleza de materia pura, es decir, formada por una única sustancia.

Sustancia pura es aquella clase de materia que no puede descomponerse en otras mas elementales por procedimientos fisicos sencillos y mantienen sus composición y propiedades quimicas y físicas constantes como el color, olor, conductividad, densidad, etc..

Mediante métodos físicos y químicos de purificación (destilación, extracción con disolventes, cristalización, etc.) es posible identificar si una clase de materia es o no una sustancia pura. Si una muestra de materia o una parte de ella no cambia sus propiedades tras someterla a uno o varios procesos de purificación, se puede afirmar que es materia pura.

Las sustancias puras no suelen encontrarse solas, sino formando mezclas:

Una mezcla es la reunión de dos o más sustancias puras que permanecen en contacto, sin que entre ellas ocurra una reacción química.

a) Si los componentes de la mezcla no se pueden distinguir, por ejemplo el aire, el agua de mar, la gasolina, una taza de chocolate, se dice que la mezcla es homogenea.

b) En el caso que en la mezcla se puedan distinguir sus componentes, por ejemplo un guiso de arroz, decimos que la mezcla es heterogenea.

Resumiendo, la materia está formada por sustancias puras o mezclas, las primeras pueden ser elementos químicos como el hierro, plomo, calcio, etc. o bien compuestas como el agua pura (H2O), la sal (ClNa), etc. Las mezclas pueden ser homogeneas u heterogeneas.

https://historiaybiografias.com/archivos_varios5/cuadro-materia3.jpg

Materia es todo aquello que tiene masa y ocupa un lugar en el espacio. Un árbol, el aire, una roca, tu libro escolar y un ser humano son cuerpos materiales.

La masa es definida como la cantidad de materia que contiene un cuerpo. La unidad de masa que se usa en química es el gramo (g).

La masa y el peso están relacionados. El peso es la fuerza de atracción que ejerce la gravedad de la Tierra sobre la masa de los cuerpos. Esto significa que el peso y la masa no son iguales.

La masa permanece constante pero el peso varía de acuerdo con la gravedad de los cuerpos.

El volumen de un cuerpo corresponde al espacio tridimensional que ocupa. Las sustancias como los líquidos y los gases tienen la propiedad de escurrirse con facilidad, es decir, de tomar la forma del recipiente que los contiene. Esta propiedad se llama fluir, por lo cual se les ha llamado a los gases y a los líquidos fluidos.

estrella1_bullet

Estados Físicos de la Materia: Sólido, Líquido y Gaseoso

En la naturaleza, la materia puede presentarse en uno de los tres estados fundamentales, conocidos como estados físicos:

• Un cuerpo es sólido cuando tiene forma y volumen definidos.

• Un líquido tiene un volumen definido pero forma indeterminada (pues adopta la forma del recipiente que lo contiene).

• Un cuerpo es gaseoso cuando no tiene ni forma ni volumen definidos (porque adopta la forma y el volumen del recipiente que lo contiene y, si está libre, se expande indefinidamente).

PROPIEDADES DE LOS SÓLIDOS:
• Tienen forma propia y, algunos, regular.
• Prácticamente no se comprimen, por lo cual su volumen es constante.
• Su densidad es bastante próxima a la de los líquidos.
• No fluyen.

PROPIEDADES DE LOS LÍQUIDOS:
• Adoptan la forma del recipiente que los contiene.
• Se comprimen con dificultad, por lo que su volumen es prácticamente constante.
• Son más densos que los gases.
• Pueden fluir.

PROPIEDADES DE LOS GASEOSOS:
• No tienen forma propia.
• Se comprimen con facilidad y se expanden llenando el volumen del recipiente que los contiene.
• Sus densidades son muy bajas comparadas con las de los líquidos y sólidos.
• Pueden fluir.
• Ejercen fuerzas sobre todas las paredes del recipiente que los contiene.

estrella1_bullet

CUADROS SINÓPTICOS SOBRE LOS ESTADOS DE LA MATERIA

cuadro sinoptico estado de la materia

Una misma sustancia y tres estados diferentes: La materia se presenta, según la disposición y el comportamiento de sus moléculas, en tres estados posibles, conocidos como estados de agregación: sólido, líquido y gaseoso.

Estado sólido. Las moléculas de los sólidos se disponen según un ordenamiento regular y se mantienen fuertemente unidas, por lo que sólo pueden vibrar alrededor de posiciones fijas.

Los cuerpos sólidos son incompresibles (no se pueden comprimir, es decir, su volumen no disminuye aunque sobre ellos se apliquen fuerzas muy grandes), tienen forma propia y propiedades específicas. Por ejemplo, la ductilidad (algunos sólidos se pueden estirar hasta formar alambres o hilos); la maleabilidad (algunos metales, al ser extendidos, forman placas o láminas); la tenacidad (oponen resistencia a romperse o deformarse cuando se los golpea) y el punto de fusión (temperatura a la cual pasan al estado liquido).

Estado líquido. Las moléculas de los líquidos se disponen de manera desordenada, y su fuerza de cohesión es menor que la de los sólidos, por lo que se mueven al azar, muy lentamente. Al igual que los sólidos, los cuerpos líquidos son incompresibles. Pero, a diferencia de los sólidos, no tienen forma propia, es decir, adoptan la forma del recipiente que los contiene.

Entre las propiedades específicas de los líquidos cabe mencionar la viscosidad, o capacidad de fluir más o menos lentamente (el aceite, por ejemplo es un líquido más viscoso que el alcohol y fluye más despacio); la volatilidad, o capacidad de evaporarse con mayor o menor facilidad (por ejemplo, al abrir un frasco de éter se percibe el olor, pues es un líquido muy volátil), y el punto de ebullición (temperatura a la cual pasan al estado gaseoso).

Estado gaseoso. La fuerza de cohesión entre las moléculas de los gases es muy débil, y éstas tienden a separarse unas de otras (se mueven al azar, muy rápidamente). Todos los cuerpos gaseosos son compresibles, es decir, su volumen disminuye cuando se aplica alguna fuerza sobre ellos. Además, los gases no tienen forma propia y siempre tienden a ocupar el mayor volumen posible.

Como propiedad específica, se puede definir el punto de licuefacción (temperatura a la cual se condensan, es decir, pasan al estado líquido; este valor coincide con el punto de ebullición).

El estado de agregación se define para una sustancia dada y a una temperatura determinada. Así, podemos decir que el oxígeno es gaseoso a la temperatura ambiente, el agua es sólida a menos de 4 °C, el vidrio es líquido a más de 1.200 °C, etcétera.

 cuadro sinoptico estado de la materia

estrella1_bullet

Cambios de Estado de la Materia:

A la temperatura ambiente, cada sustancia se encuentra en un estado determinado; el agua es líquida, el oxígeno es gaseoso, el hierro es sólido. Pero a otras temperaturas, las sustancias cambian de estado: el agua puede ser sólida; el mercurio, gaseoso, y el oxígeno, líquido, por ejemplo.

Así pues, la materia cambia de estado según la temperatura a la que se encuentra.

A continuación aparecen los nombres de los diferentes cambios de estado:

cuadro cambio de estados de la materia

Los cambios de estado que se producen por absorción de calor se denominan progresivos, y aquellos que al producirse desprenden calor se llaman regresivos.

Los cambios de estado se pueden esquematizar de la siguiente manera:

1. Fusión. Pasaje del estado sólido al líquido.

2. Vaporización. Pasaje del estado líquido al gaseoso. Cuando se verifica a través de la superficie libre.se denomina evaporación; en cambio, cuando tiene lugar en toda la masa de un líquido se llama ebullición.

3. Volatilización. Pasaje del estado sólido al gaseoso, sin pasar por el estado líquido.

4. Sublimación. Pasaje del estado gaseoso al sólido sin pasar por el estado líquido. Algunos autores emplean este término para definir también el camino inverso, es decir, la volatilización.

5. Solidificación. Pasaje del estado líquido al sólido.

6. Licuefacción. Pasaje del estado gaseoso al estado líquido.

Sabemos que es posible encontrar estas sustancias en otro estado distinto del habitual.

¿De qué factores depende el que una sustancia se encuentre en un estado físico determinado?

• En primer lugar depende, evidentemente, del tipo de sustancia que estemos considerando.

• También depende de la temperatura: calentando se puede transformar en vapor toda el agua de una cacerola; enfriando, esa misma agua se puede transformar en hielo.

• La presión es el tercer factor a tener en cuenta. Si se somete una sustancia a grandes presiones, se puede conseguir que cambie de estado, aunque no se modifique la temperatura. El gas butano con el que se cocina se encuentra en estado líquido dentro de la garrafa que lo contiene, y se transforma en gas al salir de ella. Esto es debido a que la presión atmosférica es mucho menor que la presión a la que está envasado el butano.

El estado físico en que se encuentra una cierta sustancia depende de la temperatura y de la presión a las que dicha sustancia se encuentra sometida. Modificando uno de estos dos factores, o los dos, es posible conseguir que la sustancia cambie de estado.

En la figura  se representan en un diagrama los posibles cambios de estado y el nombre característico que recibe cada uno de ellos.

cuadro cambio de estados de la materia

Cuadro cambio de estados de la materia


Es de destacar que el paso de líquido a gas o vaporización puede producirse por dos mecanismos diferentes:

• La evaporación, que tiene lugar a cualquier temperatura y únicamente ocurre en la superficie del líquido.
• La ebullición, que tiene lugar a una temperatura característica de cada sustancia y ocurre en todo el líquido.

estrella1_bullet

PROPIEDADES DE LA MATERIA

Los distintos materiales se diferencian gracias a ciertas cualidades que afectan en forma directa o indirecta nuestros sentidos y que se denominan propiedades físicas. Estas propiedades pueden medirse y observarse sin que se modifique la composición la materia. ¿Cómo se clasifican las propiedades físicas?.

Antes de responder a la pregunta, analicen estas dos situaciones sencillas:

1. Al medir la masa de un terrón de azúcar, se comprobó que era diferente de la masa de una bolsa de azúcar.

2. Al observar un grano de azúcar, se comprobó que su color era igual al de un terrón.

En el primer caso, se dice que la masa es una propiedad extensiva, porque depende de la cantidad de materia analizada. Si la cantidad de materia se modifica, se modifica en forma proporcional la propiedad extensiva. Entre las propiedades extensivas, además de la masa podemos mencionar el volumen (que se define para una presión y una. temperatura determinadas), el calor acumulado por un cuerpo, etc. Las propiedades extensivas son aditivas, es decir que la masa del terrón y la masa de la bolsa se pueden sumar para calcular la masa total de azúcar.

En la segunda situación, se dice que el color del azúcar es una propiedad intensiva, porque no depende de la cantidad de materia analizada, y constituye una característica específica de la materia.

Entre las propiedades intensivas se encuentran:

• La densidad, que es la relación entre masa y volumen en condiciones de presión y temperatura determinadas.

• El índice de refracción, que es el cociente entre la velocidad de propagación de la luz en esa sustancia y la velocidad en un medio de referencia.

• Las temperaturas a las cuales ocurren los cambios de estado (a una presión determinada): el punto de fusión, que es la temperatura a la cual coexisten en equilibrio el estado sólido y el estado líquido, y el punto de ebullición, que es la temperatura a la cual coexisten en equilibrio el estado líquido y el estado gaseoso.

• La dureza de los sólidos, que es la resistencia de un cuerpo a ser rayado o cortado.

• La tensión superficial, referida a los líquidos, que es la cantidad de energía que se requiere para extender o aumentar la superficie de un líquido por unidad de área.

• La elasticidad o capacidad de los cuerpos de deformarse, cuando se aplica una fuerza sobre ellos y de recuperar su forma original al suprimir la fuerza aplicada.

Las propiedades intensivas no son aditivas. Por ejemplo, si registran el punto de ebullición del agua contenida en dos recipientes, y luego juntan el agua de los dos en un solo recipiente y vuelven a registrar el punto de ebullición, éste no cambia.

Por otro lado, las propiedades químicas determinan qué cambios o transformaciones puede experimentar la materia en su composición. Estos cambios ocurren a través le las reacciones químicas.

estrella1_bullet

NATURALEZA DE LA MATERIA

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales y, a la vez, vemos la desintegración de muchos de estos cuerpos: las montañas sufren la erosión del viento y del agua, que convierten en polvo lo que fueron inmensas piedras, la materia orgánica que forma a los seres vivos se degrada en componentes microscópicos por la acción de bacterias y otros organismos. ¿Hasta qué punto puede llegar en la desintegración de un objeto material?

Si tomamos una hoja de papel y la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso? Esta pregunta la formularon los griegos (y probablemente también otras civilizaciones) hace muchos siglos.

Algunos, como Aristóteles, creían que el proceso de división de algo material era infinito, o dicho de otro modo: afirmaban que la materia es continua. El espacio entre los astros estaría ocupado por la materia más sutil y perfecta: el éter. (Teoría Fracasada)

Pero bien, ¿Cómo está constituida la materia? Esta es una pregunta que ha preocupado siempre al hombre y lo ha hecho meditar muchísimo.

En la antigüedad los griegos pensaron acerca de dos posibilidades: o bien sería posible dividir un trozo de materia una y otra vez, indefinidamente; o bien la materia podría dividirse hasta llegara cierto punto; a este límite lo llamaron átomo, precisamente porque «a — tomo» quiere decir «no — cortable» o «no — divisible».

Leucipo, Demócrito y Epicuro especularon con una estructura atómica de la materia, siglos antes de Cristo; pero en aquella época todo era cuestión de opinión, pues no había medios para comprobar experimentalmente la existencia de lo que hoy conocemos como átomo o como molécula. Para ello fue necesario llegar a los tiempos modernos.

El químico inglés John Dalton, en 1806, propuso formalmente la teoría atómica para explicar las relaciones cuantitativas en que se combinan ciertos gases. Posteriormente un químico italiano, Amadeo Avogadro, introdujo la idea de molécula.

Uno de los descubrimientos científicos más notables del siglo XX fue que «los átomos no son tales», en el sentido de que sí se los puede dividir, pues están formados por un núcleo, que contiene protones y neutrones y una corteza que contiene a electrones en capas energéticas que giran a su alrededor.

estrella1_bullet

LOS «LADRILLOS» DE LA MATERIA

Es muy tentadora la idea de que la materia esté constituida por unos pocos elementos. Hace siglos se pensó que éstos podrían ser el agua, el fuego, la tierra y el aire; más adelante, en el siglo XIX, llegó a afirmarse que todas las sustancias tendrían come base una sola, el hidrógeno, pues las masas atómicas de todos los elementos son, aproximadamente, múltiplos enteros de la mase atómica del hidrógeno.

Pero prontamente se desechó esa hipótesis.

Actualmente la situación se ha aclarado mucho; y una descripción sencilla (útil para comenzar a estudiar el tema pero incompleta) se basa en la existencia de tres clases de partículas componentes fundamentales de la materia: el protón, el neutrón, (ambos son llamados nucleones) y el electrón. (actualmente hay también decenas de partículas mas elementales)

COMPONENTES DEL ÁTOMO

Núcleo

Corteza

Protones (+)Neutrones (neutros)Electrones que Giran (-)

El átomo mas simple se llama Hidrógeno, y tiene solo un protón en su núcleo y un electrón girando a su alrededor.

La carga del protón siempre es (+) y la del electrón (-), los neutrones no tienen carga eléctrica. Los protones van aumentando de uno en uno, y el siguiente elemento se llama Helio, dos protones y dos electrones, luego sigue el Litio con tres , y así se van sumando hasta el átomo mas complejo conocido como Uranio que contiene 92 protones en su núcleo, junto a 146 neutrones. Todos los átomo se puede agrupar ordenadamente en una tabla llamada Tabla Periódica de los Elementos Químicos, o bien , tabla de Mendeleiev, quien fue el autor de la misma. Actualmente se ha incrementado de forma artificial el numero de elementos químicos, llegando a 114.

Los átomos son neutros, porque hay tantas cargas positivas en el núcleo como cargas negativas en la «corteza» electrónica. Pero en las cercanías del átomo, una carga eléctrica es atraída en unas zonas y rechazada en otras: el átomo no actúa rigurosamente como neutro.

Por eso, cuando dos átomos están a distancias relativamente cercanas unos de otros (a pocos diámetros atómicos), ejercen atracciones y repulsiones entre ellos, según la estructura de cada átomo en particular.

Esas interacciones tienen como consecuencia que los átomos se reúnan en estructuras, algunas sumamente simples y otras sumamente complejas: las moléculas . Estas son las estructuras más pequeñas en que las sustancias manifiestan sus propiedades químicas características: en que el agua es agua, la sal común es sal común, el oxígeno es oxígeno, el ácido sulfúrico es acido sulfúrico, etc.

LAS SUSTANCIAS PURAS SIMPLES: Son las sustancias cuyas moléculas tienen una sola clase de átomos: sus nombres coinciden con los de los elementos químicos. Estas moléculas pueden estar constituidas por diversos números de átomos: monoatómicas (como la plata, el cobre y los metales en general); diatómicas (como el oxígeno, el hidrógeno, el nitrógeno, y muchos otros gases); triatómicas (como el ozono).

Una molécula se representa con el símbolo químico y un número como subíndice de acuerdo con el número de átomos que forman la molécula: O3, Hz, Ag (en las monoatómicas se omite el subíndice), O3 (ozono), etc. El estado (sólido, líquido o gaseoso) en que se encuentre una sustancia pura simple depende de las condiciones de temperatura y presión; y en condiciones normales hay sólo dos líquidas (mercurio y bromo), once gaseosas y el resto sólidas.

LAS SUSTANCIAS PURAS COMPUESTAS: Cuando reaccionan dos o mas átomos entre sí para formar una sustancia, a dicha unión se la llama: molécula, y por lo tanto dicha molécula tienen varias clases de átomos: el agua, con dos átomos de hidrógeno y uno de oxígeno (H2O); la sal de cocina, o sal común, o cloruro de sodio, con un átomo de cloro y uno de sodio (NaCl); el ácido sulfúrico, con un átomo de azufre, cuatro de oxígeno y dos de hidrógeno (H2SO4); y otros innumerables ejemplos.

Como en la naturaleza todas las partículas están en movimiento, cuando dos o más átomos se chocan o se acercan suficientemente, actúan fuerzas eléctricas entre ellos. Y cuando las condiciones son las necesarias y suficientes, los átomos se agrupan formando moléculas.

Una sustancia compuesta estará en estado sólido, líquido o gaseoso según las condiciones de temperatura y presión. Pueden coexistir distintos estados, como en el agua: agua líquida en un arroyo mientras está nevando y hay trozos de- hielo en el suelo y vapor en la atmósfera; pero se están transformando unos estados en otros.

RESUMEN: Si la materia se encuentra en estado puro, se denomina sustancia pura; éstas tienen siempre la misma composición y pueden ser elementos y compuestos.

Los elementos son sustancias que no pueden descomponerse en otras más sencillas por métodos químicos. En la naturaleza existen 92 elementos en estado natural, los restantes han sido creados en el laboratorio. Éstos se encuentran organizados en la tabla periódica donde se han clasificado 114 elementos.

Cada clase de elemento se representa por un símbolo. El oxígeno es O; el hidrógeno es H, por ejemplo.

Los compuestos son sustancias formadas por la combinación de elementos. Los compuestos pueden descomponerse por métodos químicos en sus respectivos elementos. Las propiedades de un compuesto son distintas de las propiedades de los elementos que lo forman.

Una molécula está formada por dos o más átomos. Las moléculas pueden separarse químicamente.
Una molécula de agua está formada por dos átomos de hidrógeno y un átomo de oxígeno.

La división química de una molécula en otras moléculas más pequeñas o en átomos produce cambios en la composición y por lo tanto, cambio en las propiedades.

El agua es un compuesto formado por los elementos hidrógeno y oxígeno. Cuando una corriente eléctrica fluye por el agua, la acción de la electricidad termina descomponiéndola en oxígeno e hidrógeno. Es decir, en sus elementos.

La sal de cocina es un compuesto llamado cloruro de sodio. La molécula de sal está formada por los elementos cloro y sodio.

El oxígeno que respiramos es un compuesto formado por dos átomos del mismo elemento.

Hasta aquí hemos dicho que:

MEZCLAS

SUSTANCIAS PURAS

ELEMENTOS COMPUESTOS

Oxígeno
Hidrógeno
Sodio

Agua
Alcohol
Sal

 Física Moderna: La Materia de Comporta Como Onda?

Fuente Consultada:
Enciclopedia CONSULTORA Tomo V Física – Los Estados de la Materia
QUIMICA I Sistemas Materiales y Estructura de la Materia Editorial Santillana – Alegria, Bosack, Dal Fávero y Otros