Particulas Elementales

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

El Atomo Para Niños y Principiantes Explicación Sencilla

PARA NIÑOS: PARTÍCULAS Y ESTRUCTURA DEL ÁTOMO

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales, cuando vamos de paseo vemos correr el agua de un río, las piedras de grandes montañas, la tierra en los caminos, y seguramente vamos viajando sobre un automóvil que está construído con diversos y distintos materiales como: acero, plástico, tela, cuero, goma, etc. Pero bien,…esos materiales ¿de que están hechos?,….esa pregunta también se la hicieron hace unos 2500 años en Grecia Antigua, grandes hombres dedicados a la ciencia , como Thales de Mileto, Empédocles y Demócrito, todos ellos vivieron entre 600 y 400 antes de Cristo y aquí te los presento:

thales, empédocles y demócrito

Cada uno de ellos, y también otros pensadores mas, tenían su propia teoría o forma de explicar los elementos que constituían la materia, por ejemplo para Thales era el Agua, para Empédocles era no solo el Agua, sino también la Tierra, el Fuego y el Aire, es decir los cuatro elementos fundamentales.

Pero un día llegó el señor Demócrito de una ciudad griega llamada Abdera, y afirmó que para saber la composición de la materia, deberíamos ir cortándola por mitad sucesivamente. Imagina una hoja de papel que la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso?.

Según su idea, de dividir constantemente un cuerpo de cualquier material, obtendríamos un trozo cada vez mas pequeño, hasta obtener una porción mínima que seria imposible volver a cortarla es decir, esa porción seria INDIVISIBLE.  A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo.

Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto que tanto amaban los griegos en sus fogosas discusiones.

atomo democrito

Imagina que deseas conocer como está formada la manzana, para ello (según Demócrito) debes cortar indefinidamente la misma hasta llegar a una mínima porción “atómica”, y ese es el elemento fundamental con la que está consituída la fruta.

El mundo material, el mundo que nuestros sentidos conocen está formado por gases, como el oxígeno de aire que respiramos en este momento o el hidrógeno, de líquidos, como el agua o el alcohol, de sólidos, como el hierro o el azúcar, o de las hojas, flores y frutos de un árbol, todos no son más que diferentes agrupaciones de un número inmenso de pequeñísimos de esos corpúsculos llamados átomos.

Los átomos son muy poco diferentes los unos de los otros, por ejemplo hay átomos del material HIERRO, átomos de OXIGENO, átomos de COBRE, átomos de CARBONO, etc. En la naturaleza hay 103 elementos conocidos, entre naturales y artificiales (porque los ha hecho el hombre en el laboratorio, hoy puede haber algunos más).

Despúes de muchos años de experimentos e investigaciones los físicos del siglo XX pudieron penetrar dentro de “esa porción indivisible”,  y observaron que además existían otras partículas aún más pequeñas que los átomos y que eran las partes constituyentes del mismo.

La forma de dibujar un átomo, es la siguiente:

esquema de un átomo

Los científicos notaron que el átomo tiene en su centro casi una “esferita” que en su interior contiene dos partículas llamada: PROTONES Y NEUTRONES.

Por otro lado también observaron que alrededor de ese núcleo, giraban a gran velocidad otras partículas más pequeñas que las del núcleo y las llamaron: ELECTRONES.

Las partículas ELECTRÓN Y PROTÓN, tienen una carga eléctrica, en el primero la carga es NEGATIVA y el segundo la carga eléctrica es POSITIVA. Los NEUTRONES no poseen carga y el nombre deriva de la palabra “neutro”.

El atómo está equilibrado eléctricamente, es decir por ejemplo, que si hay 10 electrones girando (10 cargas negativas), también ese átomo tiene 1o protones en su núcleo (10 cargas positivas)

En el esquema de abajo, vemos el átomo de HELIO, material con que están hechas las estrellas. Tiene dos protones y dos electrones. La cantidad de neutrones es variable, aqui también tiene dos.

composicion del atomo: protones, neutrones, electrones

¿Que es lo que hace que un material sea Hierro, otro Helio y otro por ejemplo Oro?…LA CANTIDAD DE PROTONES contenidos en el núcleo, cantidad que se denomina: NÚMERO ATÓMICO, en el caso del esquema: Na=2

A la suma de la cantidad de protones mas neutrones la llamamos: NUMERO MÁSICO, y en el caso que nos ocupa es: Nm=2+2=4.-

Esos mas de 100 elementos que forman la naturaleza, fueron agrupados en una tabla para ser estudiados y se la llama: Tabla Periódica de los Elementos Químicos o también Tabla de Mendeleiev

tabla de mendeliev

Ampliar Esta Tabla

Observa que cada elemento (químico) tiene una ubicación, y el orden es por el Número Atómico de cada elemento: primero es el HIDRÓGENO, con un protón, le sigue el HELIO con dos protones, luego el LITIO con tres protones, el BERILIO con cuatro protones, y asi hasta el último elemento N° 103 , llamado LAWRENCIO. Hay otros números en columna a la derecha, que luego veremos y nos muestra las capas y subcapas de los electrones. Los colores de los grupos es para diferenciar los tipos de elementos, entre alcalinos, lantánidos, no metales, metales ,etc. cada uno con sus propias características, como el brillo, conductividad electrica, etc.

estructura atomo de hidrógeno

LAS MEDIDAS DEL ÁTOMO:

Para los seres humanos es muy díficil imaginar distancias tan pequeñas, como es de la partículas atómicas, pero podemos decir que esas partículas, tienen un diámetro medio de unas diez millonésimas de milímetro, se necesitarían más de diez millones de ellas colocadas en línea recta para tener un milímetro de longitud.

1 mm.= 10.000.000 de partículas

El núcleo, que es parte predominante, es decir, la mas grande, de forma esférica, que posee un radio de unos  0,0000000000001 centímetros, UN UNO CON TRECE CEROS, como se puede ver es una medida sumamente chica para poder imaginarla. El diámetro de los electrones es aún mas pequeño.

Respecto al peso de esas partículas, no vamos a dar números, pero es un UNO CON VEINTIOCHO CEROS de gramo, y el peso del protón es 1836 veces el peso del eléctrón. A este concepto le llamamos MASA DE LA PARTÍCULA.

Dijimos que los electrones giran muy rapidamente alrededor del nucleo, en una trayectoria circular, y el radio de esa circuferencia es de UN UNO CON 11 CEROS de metro, 0,00000000001 m. Para las dimensiones del átomo esa medida es grande, porque esa medidas es 25.000 veces mas grande que el radio del núcleo.

Para llevarlo a una escala “mas humana”, piensa que si el nucleo tiene la medida de una moneda, el radio del electrón seria de unos 250 metros.

Presentamos un esquema aproximado de las dimensiones a modo de aclarar un poco mas la idea, pero como consejo solo trata solo de recordar que un átomo mide 10.000.000 veces que 1 metro.

ESQUEMA medidas del atomo

NIVELES DE ENERGIA DE LOS ELECTRONES

Debemos aclarar que esas partículas son tan pequeñas que no pueden observarse, y cuando enviamos un rayo de luz para intentar verla, esa partícula cambia de posición en el mismo instante, entonces es imposible hablar de la posición exacta en el espacio que rodea al núcleo. Como consecuencia nació a principio del siglo XX una nueva física, conocida como física cuántica, que recurre a la PROBABILIDAD  de encontrar o “ver” un electrón en la región que rodea al núcleo de un átomo.

A partir de ese concepto hablamos de la CERTEZA de que un electrón se encuentre girando en cierta área que rodea al núcleo. Existen varias áreas o regiones de giro, y cada una le corresponde lo que llamamos NIVEL DE ENERGIA, para cada nivel hay un NÚMERO MAXIMO de electrones que pueden girar. Hay una fórmula muy simple que permite determinar la cantidad de electrones por nivel de energía o CAPA, y es la siguiente: 2.n².

Observa como se calcula el número de electrones por cada nivel en el esquema de abajo, usando la fórmula anterior.

niveles de energia de los electrones

Y finalmente cada nivel tiene un subnivel o subcapa que también permite que en esa zona giren electrones, a cada subnivel se lo llama. s , p , d , f, y el máximo de electrones es de 2, 6, 10 y 14 respectivamente.

Puedes observar la tabla siguiente:

tabla de subniveles de energia atomica

Resumiendo lo antedicho, podemos concluír que:

Entonces para el nivel es el 1, sabemos que solo puede contener 2 electrones, por lo que el nivel 1 tiene una subcapa llamada s, que permite 2 electrones.

Para el nivel 2, la cantidad de electrones es de 8, por lo que tendrá dos capas, la s y la p, con 2 y 6 electrones, es decir 8 en total.

Para el nivel 3 , la cantidad de electrones es de 18, entoces tendra tres capas, s, p y d , con 2, 6 y 10  electrones y l suma es 18.

En la tabla siguiente lo podemos analizar mas fácil, para tres capas.

tabla de capas y subcapas de los atomo

Entonces veamos por ejemplo ahora el átomo de NIQUEL, que según la tabla de los elementos nos indica que tiene 28 protones, entonces el numero de electrones también será de 28, y estarán ubicados de la siguiente manera:

En el NIVEL 1, tendrá 2 en la subcapa s , + NIVEL 2 con 8 en dos cubcapas ( s, p)  + NIVEL 3 con 18 en tres subcapas (s,p,d), cuya suma es de 28 electrones.

AMPLIACIÓN SOBRE LA ENERGÍA NUCLEAR: Los átomos de un elemento tienen siempre el mismo número atómico, pero pueden poseer distinto número de masa, por contar con un número diferente de neutrones; tales átomos se denominan isótopos.

El edificio del átomo, centro de enormes fuerzas que se ejercen entre cargas opuestas, no presenta una estabilidad ilimitada. El núcleo puede desintegrarse y liberar energía atómica, más correctamente energía nuclear, pues el proceso tiene lugar directamente en el núcleo del átomo.

Los fenómenos que conducen a la liberación de tal energía son la fisión y la fusión de núcleos. La fisión, traducción fonética de la voz inglesa fission, significa escisión, división o partición de la masa de un núcleo pesado en dos fragmentos, que originan los núcleos de otros dos átomos más livianos y de pesos atómicos más o menos iguales, y la fusión, unión de dos núcleos de átomos livianos para formar el núcleo de uno más pesado.

En ambos casds, la liberación de cantidades extraordinarias de energía se debe a la transformación de cierta cantidad de masa de los núcleos de los átomos originales de energía. Esta se determina por medio de la fórmula:

E = m.c², establecida por Albert Einstein.

En ella, E es la energía liberada, m la masa transformada y c la velocidad de la luz. Gracias a dicha transformación, destrucción o aniquilamiento de la masa o materia se puede, de una pequeña cantidad de ella, obtener una cantidad enorme de energía. Así, de la fisión de 1 kilogramo de uranio puede obtenerse una cantidad de energía equivalente a la que produce la combustión de 2.500 toneladas de carbón.

Las aplicaciones de la energía nuclear son numerosas. La bomba atómica o bomba A y la bomba de hidrógeno o bomba H se pueden emplear para excavar grandes canales, demoler rocas, etc. Los reactores nucleares sirven para producir energía eléctrica, así como para propulsar buques. También se utilizan piara obtener isótopos artificiales que tienen aplicaciones en medicina, agricultura e industria.

Fuente Consultada:
CIENCIA JOVEN Diccionarios Enciclopedico Tomo V – El Átomo y su Energía-

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Fuerzas en un Plano Inclinado Descomposicion del Peso

DESCOPOSICIÓN DE UN PESO SOBRE UN PLANO INCLINADO

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión. No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo. Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso. Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py. Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py. Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, O=@ (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @. Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo. En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente. El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra. Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Concepto de Fuerza Centrífuga Aplicaciones Prácticas

Si se hace girar con rapidez un balde parcialmente lleno de agua, con los brazos extendidos alrededor del cuerpo, el contenido no se derrama, aun cuando el balde esté volcado sobre un costado. El principio responsable de este fenómeno es conocido por los físicos con el nombre de fuerza centrifuga.

Al mismo tiempo que se hace girar el balde, el agua tiende a permanecer dentro de éste, presionada hacia el fondo (es decir, hacia afuera con respecto a quien hace girar el balde) o al centro de giro por la fuerza centrífuga. Este es un ejemplo bastante directo de como se origina esta fuerza, aunque hay muchas otras aplicaciones más prácticas.

Sabemos, según las leyes de los cuerpos en movimiento, enunciadas por Isaac Newton, que las fuerzas siempre se originan por pares, siendo cada una de las mismas de igual valor y sentido contrario. La fuerza que se necesita para mantener un cuerpo que gira dentro de su trayectoria, evitando que se vaya hacia afuera, se conoce como fuerza centrípeta y es igual pero de sentido contrario a la fuerza centrífuga.

Fuerza centrífuga en un balde girando. El agua no sale del balde porque es empujada hacia el exterior o fondo.

En el caso del ejemplo mencionado, esta fuerza centrípeta se manifiesta como el esfuerzo realizado por el brazo para sostener el balde. Podemos ver, bastante fácilmente, cómo estas fuerzas se relacionan con la velocidad a la cual el objeto se mueve dentro de su órbita. Un ejemplo emocionante lo constituye, en el espec táculo circense, un motociclista que da vueltas dentro de una gran esfera de malla metálica.

Cuando su máquina se mueve lentamente, el motociclista no puede subir muy alto, pero a velocidades mayores la fuerza centrífuga que tiende a lanzarlo hacia afuera es tan grande, que puede trepar verticalmente hasta la cúspide de la esfera y girar sin perder contacto con la “pista”, a pesar de desplazarse “cabeza abajo”.

La inclinación que se observa en las curvas de las vías férreas obedece al mismo principio: la fuerza centrífuga que impulsa hacía afuera al tren cuando éste toma la curva, es contrarrestada por la fuerza centrípeta que se manifiesta cuando el costado de las ruedas presiona sobre los rieles. Este esfuerzo se reduce considerablemente inclinando las vías en un cierto ángulo, de modo que el riel exterior (el más alejado del centro de la curva) esté a mayor altura que el interior.

Otro ejemplo parecido lo constituye aquella famosa primera pista de Avus, en Alemania, donde ya en el año 1937, los promedios de velocidad establecidos por los coches de carrera llegaban a 261 Km./h., con records hasta de 280 Km./h. Esto podía lograrse porque aquella pista tenía curvas construidas con un extraordinario peralte que llegaba a los 45 grados. De esta manera, se conseguía precisamente vencer la gran fuerza centrífuga que esas velocidades provocaban en los giros. Una idea de dicha fuerza la da el cálculo de que, en el momento de paso sobre la curva, los neumáticos debían soportar nada menos que 3 veces el peso de la máquina.

Peralte o Inclinacion de la Carretera

Los llamados trajes de presión, creados por los japoneses durante la segunda guerra mundial y adoptados luego por casi todas las demás fuerzas aéreas, constituyen una solución bastante aceptable al problema de la tremenda fuerza centrífuga a que está sometido el piloto en un combate aéreo. Este traje evita que, en los giros violentos, la sangre se desplace y se agolpe por centrifugación, con el consiguiente desvanecimiento y pérdida momentánea de la visión. Pero no siempre ¡a fuerza centrífuga resulta negativa; muchas veces el hombre se vale de ella para obtener provecho.

Un buen ejemplo de aplicación práctica de este principio lo tenemos en el aparato denominado centrifuga. Si tenemos una suspensión de un sólido en un líquido, o una mezcla de líquidos de diferentes densidades, es decir, que tienen relaciones diferentes de peso a volumen (por ejemplo crema y leche), y que han sido mezclados hasta formar una emulsión, podemos separarla si la dejamos reposar tiempo suficiente.

Una centrifugadora es una máquina que pone en rotación una muestra para –por fuerza centrífuga– acelerar la decantación o la sedimentación de sus componentes o fases (generalmente una sólida y una líquida), según su densidad. Existen diversos tipos, comúnmente para objetivos específicos.

La atracción que ejerce la gravedad sobre la leche es mayor que sobre la crema, menos densa, que va a la superficie. Este proceso se puede acelerar centrifugando la mezcla (estas centrifugadoras tienen la forma de un cuenco que gira rápidamente). De este modo la leche es impulsada más lejos del centro que la crema, la cual, por no ser tan densa, no sufre con tanta intensidad los efectos de la fuerza centrífuga que se origina.

También bombas centrífugas y turbinas centrífugas que trabajan con líquidos y aire, respectivamente, son un acierto mecánico. Debemos recordar que los turborreactores centrífugos reciben este nombre porque su alimentación de aire lo produce una turbina de ese tipo.

Bomba centrifugadora

En la fundición de metales, las inyectaras centrífugas son insustituibles por la precisión, seguridad y calidad de los colados. Este tipo de inyectora recibe el metal fundido por un tragadero central, y mantiene adosada una batería de matrices a su contorno. Girando a gran velocidad, el metal es centrifugado con gran presión, e inyectado al interior de las matrices.

RAZÓN POR LA CUAL LA TIERRA NO ES ATRAÍDA POR EL SOL

Esquema Sistema Tierra-Sol

Esto se debe a que, a pesar de la atracción gravitacional (fuerza de gravedad) la fuerza centrífuga tiende constantemente a empujar a la Tierra hacia afuera. En este caso, las dos fuerzas están equilibradas. La fuerza de gravedad entre el Sol y la Tierra actúa como una fuerza centrípeta, que tiende a atraer al planeta, que gira en su órbita, hacia el Sol. La fuerza centrífuga originada por el movimiento de rotación, tiende a empujar al planeta en sentido contrario, es decir, fuera del Sol., El resultado es que la distancia entre el Sol y la Tierra se mantiene constante, suponiendo que la velocidad del planeta también se mantenga igual (en realidad, la velocidad de la Tierra sufre pequeñas variaciones, con la consiguiente alteración en la distancia al Sol). El mismo principio se aplica a los satélites artificiales que se ponen en órbita para girar alrededor de la Tierra. La atracción de la gravedad equilibra las fuerzas centrífugas, y los satélites pueden moverse a distancia más o menos constante de la Tierra, “suponiendo que su velocidad sea también constante”. De todos modos, la velocidad se reduce gradualmente, a causa del rozamiento con la atmósfera, y los satélites tienden a caer hacia la Tierra.

Formula de la Fuerza Centrípeta:

Diagrama de un cuerpo girando, Fuerza Centrifuga

Ejemplo: si se toma una piedra de 2 Kg. de masa, atada a una cuerda y se la hace girar con un radio de 1,2 m. a razon de 2 vueltas por segundo. Cuanto vale la fuerza centrífuga que debe soportar la cuerda?.

La masa es de 2 Kg., el radio: 1,20 metro, pero nos falta la velocidad tangencial Ve, pues la del problema es la velocidad angular.

Para ello se sabe que dá dos vueltas en un segundo, entonces el recorrido es, dos veces el perímetro de la circunferencia por segundo. Podemos hallarlo asi: 3.14. 1.2. 2=7.53 m. cada vuelta , por dos es: 15,07 m. distancia que la masa recorre en 1 segundo, por lo tanto la velocidad tangencial es: 15,07 m/seg.

Aplicando la formula se tiene que Fc= ( 15,07 )². 2 /1,2² =454/1.44=315,27 Newton

Fuente Consultada:
Revista TECNIRAMA N°21 Enciclopedia de la Ciencia y La Tecnología -La Fuerza Centrífuga-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Cálculo del Radio de la Orbita en el Átomo de Hidrógeno

Cálculo del radio de la primera órbita del átomo de hidrógeno
Como es sabido, un átomo puede compararse a un sistema solar en miniatura. El centro, o núcleo, es relativamente pesado y estacionario, mientras que los electrones giran alrededor, en forma similar a como los planetas giran alrededor del Sol.

En general, las distancias electrón-núcleo son del orden de  10-8 cm, 0,00000001 cm.

esquema radio del hidrogeno

En un átomo la fuerza que mantiene a los electrones en sus órbitas no es gravitatoria, sino de naturaleza electrostática, ya que el protón (único componente del núcleo en el átomo de hidrógeno) y el electrón tienen cargas contrarias.

Neils Borh

Niels Bohr

Al igual que la fuerza gravitatoria, la electrostático es inversamente proporcional al cuadrado de las distancias.

Teniendo en cuenta que en una órbita circular la fuerza centrípeta está constituida por esta fuerza de atracción electrostática, e introduciendo el postulado de Niels Bohr, que establece que el momento angular del electrón en una órbita circular está cuantificado, es decir, sólo puede alcanzar valores enteros de h/2.¶ , donde h es la constante de Planck,   obtendríamos  la  siguiente expresión:

formula radio orbita del hidrogeno

que nos permite hallar para la distancia requerida el valor de 5.28.10-9 cm., sustituyendo las constantes n (en este caso es igual a 1, por ser la primera órbita), h (constante de Planck), m y e (masa y carga del electrón) por sus valores respectivos.

Valores de:
h=6.62606957 ×10 -34 J×s
m=9,109 382 91×10−31 Kg.
e=1,602 × 10-19 culombios

El valor obtenido, conocido como radio de Borh es: 5,291 772 0859×10−11 m.

 

Calcular la Velocidad de Una Bala Pendulo Balistico

HALLAR LA VELOCIDAD DE UNA BALA

La velocidad de una bala de rifle o de pistola puede medirse con un aparato llamado péndulo balístico. Consiste en esencia de un bloque de madera o dé plomo, de masa M, suspendido por una cuerda, como se indica en la figura.

pednulo balistico calcula velocidad de una bala

Si disparamos una bala de rifle de masa m y velocidad v contra dicho bloque, obligaremos a éste a recorrer el arco @, que puede ser medido fácilmente. Cuando la bala ha penetrado en el bloque, el conjunto se mueve con una velocidad V, y de acuerdo con el principio de conservación de la cantidad de movimiento, podemos escribir:

m . v = (M + m).V

Para hallar el valor de v, velocidad del proyectil antes de que se produzca el impacto, sólo nos resta pues conocer el valor de V, velocidad del conjunto después de que la balo se ha incrustado en el bloque.

Esta velocidad se puede hallar fácilmente aplicando el principio de conservación de la energía al movimiento de (M+ m) desde A, donde la energía es totalmente cinética (y potencial nula), hasta el final de su recorrido B, donde toda la energía es potencial (y cinética cero)

1/2 (M + m) V² = (M + m) g. h

Despejando V de esta fórmula de conservación de la energía es: V= (2.g.h)½ (elevado a 1/2 ó raíz cuadrada)

Midiendo directamente h, o hallando su valor a partir de l , @ (usando trigonometría) encontraremos V, que, sustituida en la primera fórmula, nos indicará el valor de la velocidad de la bala antes de producirse el impacto (g representa la aceleración de la gravedad, es decir, aproximadamente 9,8 m/seg²).

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS BÁSICOS DE LA TEORÍA TÓMICA: ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos. La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro. Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos. Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos). Hay “macromoléculas” formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico. Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles. Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción. Preparó un “código” en base a símbolos gráficos que utilizaba para representar la fórmula o “receta” por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.). Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.  Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O. Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados. De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos. El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada “conservación de la masa” y la otra la “ley de las proporciones definidas” que dicen:

1-Ley de la Conservación de la Masa: “En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)”.

2-Ley de las Proporciones Definidas: “Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas”.

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la “receta química” o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su “peso atómico” es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su “receta” o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante “ley”: “Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas”.

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
Agua H2O 18
Hidrógeno H2 2,0
Cloruro de hidrógeno ClH 36,5
Oxígeno O2 32,0
Ozono O3 48,0
Dióxido de azufre SO2 64
Trióxido de azufre SO3 80
Ácido sulfúrico S04H2 98
Amoníaco NH3 17
Pentóxido de fósforo P2O5 142
Trióxido de fósforo P2O3 110
Dióxido de carbono CO2 44
Trióxido de aluminio Al2O3 102
Óxido de calcio CaO 56
Carbonato de calcio C03Ca 100
Óxido cúprico OCu 80
Óxido ferroso OFe 72
Óxido férrico 03Fe2 160
Óxido mercúrico OHg 216
Hidróxido de potasit) KOH 56
Hidróxido de sodio NaOH 40
Clorato de potasio Cl03K 123
Cloruro de sodio CINa 58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Curiosas Estadisticas del Mundo Datos Poblacion Hambre Pobreza Energía

CURIOSAS ESTADÍSTICAS DEL MUNDO: POBLACIÓN, HAMBRE, POBREZA, ENERGÍA

datos del mundo

EL ETERNO PROBLEMA DE LA POBREZA MUNDIAL:
Actualmente, en el mundo en desarrollo 1.300 millones de personas viven con menos de un dólar diario y cerca de 3.000 millones, casi la mitad de la población mundial, con menos de dos dólares.

El hecho de que los países industrializados alcancen los porcentajes más bajos de pobres, no significa que en esos países no los tengan, pues el problema de la pobreza es mundial. Lo que ocurre es que en esos países la mayoría de sus habitantes no son pobres y gran parte tiene acceso a condiciones dignas de vida. En cambio, en los países en desarrollo, existe un predominio de pobres y una minoría de ricos.

En el mundo, la mayoría de los pobres todavía se localiza en las zonas rurales, pero esta situación está cambiando y probablemente en el siglo XXI la mayor parte viva en ciudades. Este proceso será resultado de la migración a las zonas urbanas, del menor acceso a recursos productivos, del desarrollo insuficiente de la vivienda urbana y la infraestructura física, etcétera.

EN BUSCA DE SOLUCIONES:

Tan grave es este problema que ha crecido la conciencia de la necesidad de cooperación internacional para intentar mejorar esta situación. Una de las iniciativas que emprendió la Organización de las Naciones Unidas es el Programa de las naciones Unidas para el Desarrollo (PNUD).

Este programa aconseja que se preocupen por la calidad del crecimiento económico y por las siguientes cuestiones:

Crecimiento sin empleo: la economía general crece pero sin que aumenten las oportunidades de empleo. En los países en desarrollo el crecimiento sin empleo también redunda en muchas horas de trabajo e ingresos muy bajos para centenares de millones de personas.

Crecimiento sin equidad: los frutos del crecimiento económico benefician especialmente a los ricos, dejando a millones de personas sumergidas en una pobreza cada vez más profunda. Entre 1970 y 1985, el valor de la producción mundial aumentó un 40% pero el número de pobres creció el 17%.

Crecimiento sin voz de las comunidades: la represión política y los controles autoritarios han impedido las demandas de mayor participación social y económica en los países donde el crecimiento de la economía no ha sido acompañado por un fortalecimiento de la democracia o de las posibilidades de expresarse de la gente.
El PNUD considera que existen factores a tomar en cuenta para que el desarrollo humano acompañe al crecimiento:

Equidad: cuanto mayor sea la igualdad con que se distribuye la producción mundial y las oportunidades económicas, tanto más posible será que se traduzcan en un mejoramiento del bienestar humano.

Oportunidades de empleo: el crecimiento económico se concreta en la vida de la gente cuando se ofrece trabajo productivo y bien remunerado. Una manera importante de lograrlo consiste en procurar crecimiento por medio de actividades económicas que requieren abundante mano de obra.

Acceso a bienes de producción: el Estado debería actuar para lograr que las personas más pobres tengan satisfechas sus necesidades básicas.

Gasto social: los gobiernos y las comunidades pueden influir en gran medida en el desarrollo humano, encauzando una parte importante del ingreso público hacia el gasto social más prioritario: salud, educación, justicia, atención de los ancianos.

Igualdad de género: brindar a la mujer mejores oportunidades y mejor acceso a la enseñanza, las guarderías infantiles, el crédito y el empleo.

Esto se complementa con políticas de población, buen gobierno y una sociedad civil activa.

Un esfuerzo decidido para aumentar la capacidad humana -mediante mejor enseñanza, mejor salud y mejor nutrición- puede ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países de bajos ingresos y escaso desarrollo humano.

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la Termodinámica Modelo Atómico de Bohr Cinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir “salvar los fenómenos” estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

“Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.”

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el “spin“, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son “permitidas” mientras que otras “permanecen prohibidas”.

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energia – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación Sencilla del Fenómeno Teoría

EXPLICACIÓN DE LA RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca la explicación de los procesos por los cuales la materia emitía o absorbía radiación. Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace. Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro. Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Los Vicios y sus Efectos Sociales Defectos Humanos Mentira Egoismo

Los vicios individuales y sus efectos sociales


vicios sociales

A. Los vicios
Vicio es una disposición habitual de la voluntad a obrar mal. Así como un acto bueno no constituye la virtud, tampoco un acto malo constituye el vicio. Se requiere repetición. El que se embriagó una vez, no por eso es alcoholista, ni tampoco es vicioso.

El vicio se contrae por la repetición de actos reñidos con la moral, actos malos o reprobables.
El vicio es malo por oponerse al recto orden de la razón. Nadie se torna vicioso de improviso, su relajamiento se produce gradualmente, pues, por lo general, el vicio en sus comienzos es poca cosa; pero no se ha do olvidar que un  inmenso toma su origen de una chispa. El primero a quien daña el vicio, es aquel que lo posee.

Dice Boecio que “así como la languidez es una enfermedad del cuerpo, así el vicio es una enfermedad del alma, y que la peor enfermedad de los hombres es la de entregarse a los vicios”.

Todos los vicios son malos. Pero los más perniciosos, más fáciles de contraer y más difíciles de desarraigar, son: el alcoholismo, la lujuria, el tabaquismo y la toxicomanía. Los vicios no quedan circunscriptos al individuo, sino que repercuten en los demás: tienen efectos sociales. Baste nombrar los enfermos mentales, por ser hijos de alcoholistas, o los débiles constitucionales, por descender de padres tarados por los vicios.

El alcoholismo, la toxicomanía, el juego, la vagancia, la lujuria, el robo, el crimen, son vicios que repercuten en la sociedad, y son causa de perturbación y degeneraciones sociales.

la mentira segun gandhi

B. – Formas de mentira
Mentira es una expresión contraria al pensamiento.
Por expresión debe entenderse, no solo la palabra hablada, sino también la escrita y los actos y gestos. Con la mentira se pervierte la finalidad de estos medios de manifestar el pensamiento.

La clasificación más común de la mentira es la siguiente:
Mentira oficiosa es la que se dice en utilidad propia o ajena, para evitar algún mal. La gravedad dependerá del daño que cause a terceros.

Mentira perniciosa es la que se dice con intención de causar daño a otro.

Mentira jocosa es la que se dice por diversión, para animar la conversación. No reviste mayor importancia, cuando los oyentes advierten la falsedad de lo que se dice, y, además, no ofende a nadie.

No es exagerado afirmar que se vive en un mundo de mentiras. Miente el comerciante en sus negocios, engañando, adulterando mercaderías; miente el demagogo embaucando a las masas con falsas doctrinas e irrealizables promesas; mientras el estadista y el funcionario; miente el hombre en su vida privada y en sus relaciones sociales… Las más graves son las mentiras de los gobernantes. Los Estados totalitarios tienen organizada la mentira, por medio de la propaganda, la falsificación de la historia, la deformación de los hechos en las noticias, comunicados, partes oficiales …

Una de las formas más cínicas de mentir, es la que emplea el comunismo, que no tiene empacho en afirmar y presentar como ciertas las cosas más inverosímiles y más opuestas a la verdad.

Es que el comunismo parte de este principio: es bueno y lícito todo lo que favorece al comunismo; es malo todo lo que se le opone.

Las mentiras, las torturas, los crímenes, el terrorismo, si favorecen, al comunismo, son cosas buenas. No hay Estado más imperialista, armamentista y provocador de revoluciones y hasta de guerras, que la Rusia Soviética; y, no obstante, tiene el cinismo de proclamarse campeón de la paz y del antimperialismo.

C. – De deslealtad

Deslealtad es la negación de la lealtad, la falta de fidelidad y exactitud en el cumplimiento
de los propios deberes y compromisos.

Los individuos son desleales a la sociedad, cuando burlan las leyes o no cumplen los compromisos contraídos con sus semejantes.

Una muy grave deslealtad, es la traición a la patria. Se puede traicionar a la patria cuando se revelan secretos concernientes a su seguridad, cuando se toman las armas contra ella, o cuando se pasa a las filas enemigas y se les presta ayuda o socorro.

Los gobernantes cometen deslealtad para con el pueblo, cuando no cumplen con fidelidad los deberes del cargo que ocupan. Ejemplos de deslealtad son la malversación dé los caudales públicos, el enriquecimiento ilícito con los dineros del Estado, el dejarse sobornar con dádivas o dinero, etc.

D. – De intolerancia
Como la misma palabra lo indica, intolerancia significa falta de tolerancia.

Intolerancia es la falta de respeto y tío consideración hacia las opiniones o conducta ajena porque o no coinciden con las propias o las contrarían.

Hay una intolerancia doctrinaria que debe ser admitida porque es una necesidad de la naturaleza: es la intolerancia de la verdad y de los principios.
Quien está seguro de poseer la verdad, es —y debe serlo— intolerante con el error.

Así el maestro no puede aceptar, por tolerancia, que el alumno afirme que cinco más cinco son doce; que el ángulo agudo es mayor que el recto; que el general Belgrano nació en Bogotá, cruzó los Andes y libertó a Bolivia… Los examinadores son intolerantes con los errores que los malos alumnos dicen en sus exámenes; es intolerante el médico, cuando prescribe las medicinas que deben devolver la salud; son intolerantes los jueces, cuando condenan a ladrones, depravados y criminales…

No se trata aquí de esa intolerancia doctrinaria —que nadie razonablemente puede dejar de admitir, y que nunca debe ser agresiva—, sino de la intolerancia con las personas. La intolerancia puede existir en las personas particulares, en los grupos y en las personas investidas de autoridad.

Las personas particulares son intolerantes cuando adoptan una actitud de intransigencia, no en los principios, sino en el comportamiento, en el trato, de lo cual resulta difícil la convivencia.

Hay quienes no soportan nada: opiniones opuestas a la suya, inconvenientes, actitudes molestas… Cualquier cosa los irrita, y les hace perder el autodominio.

Pretenden que todo el mundo piense como ellos, y que todas las cosas se hagan según sus indicaciones. Se creen infalibles en sus juicios.

Les falta comprensión y amplitud de miras por su intolerancia. Tales personas hacen muy difícil y penosa la convivencia. La intolerancia se manifiesta también en los grupos, sea entre diversas clases sociales, como entre asociaciones o partidos políticos antagónicos.

Por la intolerancia de clase, los grupos que se consideran superiores desprecian a los otros, y no admiten nada de bueno en ellos; las clases consideradas inferiores suelen’ atribuir todos los vicios y defectos a las superiores, y no toleran nada de lo que juzgan ofensivo. Se prodigan insultos recíprocos, y anidan odios y resentimientos.

La intolerancia de grupo ha hecho que partidos de fútbol denominados “amistosos”, degenerasen en poco menos que batallas campales.

La intolerancia entre los partidos políticos puede llegar a tener consecuencias gravísimas: persecuciones, torturas, vejámenes, venganzas y hasta crímenes.
Cuando la intolerancia es ejercida por personas investidas de autoridad, resulta terrible. Ejemplos elocuentes pueden verse en el terror de la Revolución Francesa, las tremendas represiones y purgas comunistas, las persecuciones de los regímenes totalitarios…

E. – De egoísmo

Etimológicamente, egoísmo proviene de ego, que quiere decir yo. Egoísmo significa el amor exagerado de sí mismo. El egoísmo es lo opuesto al altruismo. El egoísta piensa solo en sí. Su lema es, en los hechos: “Primero yo, después yo y siempre yo”.

Expresión de egoísmo es el “individualismo”, sistema que pone al individuo, al propio yo, a la propia persona, como centro y eje de toda la vida social.

Puede afirmarse que la mayoría de los males que aquejan a la humanidad, provienen del egoísmo, de esa falta de generosidad que impide pensar en los demás y buscar el bien común.

Una crítica seria que se formula a la Revolución s Francesa, es el haber acentuado en el mundo ese individualismo egoísta que tantas injusticias y tantos males ha traído a la sociedad.

F. Carencia de patriotismo

La carencia de patriotismo es una de las consecuencias del egoísmo.

El patriotismo supone generosidad, olvido de sí mismo, renuncia a las ventajas particulares en favor del bien común. El egoísta piensa y se preocupa de sí mismo, y se desentiende de todo lo demás. De ahí resulta esa apatía e indiferencia por todo lo que interesa a la patria.

En una democracia, la falta de patriotismo lleva a consecuencias funestas: los ciudadanos, en lugar de elegir a los mejores para los cargos públicos, son capaces de sufragar a veces por los ineptos: los problemas públicos no son solucionados de la forma más conveniente para la patria —lo que redundaría en bien de todos—, sino, teniendo en vista los propios intereses particulares.

Biografía Rutherford Modelo Atomico Configuración del Atomo

Biografía Rutherford – Modelo Atómico

Temas Relacionados:  ¿Que es un átomo?  Energía Nuclear   Física Moderna  Fisión Nuclear

Ernesto Rutherford (1871-1937) fue uno de los mayores científicos experimentales de todos los tiempos. Nació enBrightwater, cerca de Nelson (Nueva Zelandia), de una familia de colonos ingleses.

Ernesto Rutherford fisicoAunque fue un buen alumno en la escuela, Ernesto no mostró una especial inclinación por la ciencia. En 1890, ingresó en el Canterbury College, de Christchurch, Nueva Zelandia, donde su aptitud científica se hizo patente, graduándose con las mejores notas, tanto en ciencias como en matemáticas.

Continuó en Christchurch en trabajos de investigación, y desarrolló un detector de ondas de radio, que dependía de la magnetización del hierro. En 1894, la Universidad de Cambridge, en Inglaterra, sacó a concurso una beca con destino a un posgraduado de Nueva Zelandia, y Rutherford la ganó. Llegó a Inglaterra en 1895, tras pedir dinero prestado para el viaje.

En Cambridge, J. J. Thomson era profesor del famoso laboratorio Cavendish, y, en aquel tiempo, estaba trabajando en experimentos sobre la conducta de los gases después de ser expuestos a los recientemente descubiertos rayos X. Rutherford dejó de trabajar en su detector de radio-ondas, que eventualmente Marconi tuvo en cuenta y a partir del cual se estableció la potencialidad de las emisiones de radio, y se unió a J. J. Thomson en su trabajo.

Cuando Rutherford estaba colaborando con Thomson en sus experimentos, en 1896, se anunció en París el descubrimiento de la radiactividad. En 1897, Thomson hizo pública su demostración de la existencia de los electrones, pero Rutherford estaba ya trabajando en experimentos sobre la conducta de los gases, después de haber sido expuestos a la radiactividad.

Durante estos años, observó muchas de las propiedades de ésta, y se familiarizó con los métodos experimentales de dicha ciencia. En 1898, Rutherford solicitó una plaza de profesor de investigación en la Universidad de McGill, de Montreal (Canadá), lográndola cuando tenía 28 años de edad, y dando comienzo así al primer gran período de descubrimientos científicos de su vida.

En 1901, el químico inglés F. W. Soddy colaboró con Rutherford en sus investigaciones sobre radiactividad, y, al cabo de un año, comprobaron que un átomo radiactivo se transforma en otro átomo diferente por emisión de radiación. Juntos, publicaron trabajos sobre la causa y naturaleza de la radiactividad, y acerca de la teoría de la “transformación espontánea”.

Rutherford también se preocupó de las partículas alfa (las partículas beta fueron identificadas por entonces como electrones), y publicó un trabajo general sobre los cambios radiactivos, en 1903. En 1904, dio a la imprenta su primer libro, titulado Radiactividad.

En cinco años, Rutherford, con la ayuda de Soddy, resolvió muchos problemas de esta nueva ciencia, observando que los átomos radiactivos se transforman espontáneamente en otros átomos, y definió el concepto de isótopos. En 1906, la Universidad de Manchester le ofreció ocupar la cátedra de un profesor que había prometido jubilarse si Rutherford aceptaba. Rutherford aceptó, y, en 1907, se trasladó a Manchester, que tenía laboratorios nuevos y bien equipados. Aquí empezó su segundo período de descubrimientos, probablemente el más importante y de seguro el más feliz de su vida.

Se encontró que, cuando una hoja metálica era bombardeada por partículas alfa, la mayor parte de estas partículas no se desviaban, o se desviaban en ángulos muy pequeños, cuando pasaban a través de la hoja. Sin embargo, algunas se desviaban un gran ángulo, y, en realidad, eran rechazadas por la hoja. Rutherford probó, matemáticamente, que tal comportamiento sólo se podía explicar con su modelo del átomo “nuclear”, es decir, un átomo en que un pequeño núcleo cargado positivamente está rodeado de un número de electrones. Cuando las partículas alfa pasan cerca del núcleo, son repelidas fuertemente (las cargas positivas se repelen entre sí), produciéndose un gran cambio de dirección. Cuando pasan a mayor distancia del núcleo, la desviación es muy pequeña.

En 1908, Rutherford recibió el Premio Nobel de Química, por sus trabajos en radiactividad, estando, por entonces, ocupado en investigar las propiedades de las partículas alfa, con la colaboración de varios de sus quince alumnos. Una serie de experimentos le llevó a la conclusión de que dichas partículas eran, en realidad, átomos de helio, y para probarlo efectuó en 1909 una sencilla e inteligente experiencia.

Puso una sustancia (radón), que emitía partículas alfa, fuera de un tubo donde se había hecho el vacío y se había cerrado después, teniendo un electrodo metálico en cada extremo. Pasados unos días, se aplicó una corriente de alto voltaje a los electrodos metálicos, y el espectro de la descarga eléctrica obtenida probó, sin duda alguna, la existencia de átomos de helio en el tubo, Las partículas alfa debían haber atravesado las paredes del tubo, almacenándose allí, y las partículas alfa tenían que ser átomos de helio. En realidad, sabemos hoy que las partículas alfa son núcleos de helio.

En 1911, Rutherford propuso su idea más revolucionaria relativa a la existencia del núcleo atómico. Hasta entonces se creía que el átomo era una esfera cargada positivamente, con electrones cargados negativamente, moviéndose en su interior. Dos de sus colaboradores descubrieron que, cuando se dejaba que muchas partículas alfa chocasen con una hoja fina de metal, varias de las partículas retrocedían, saltaban hacia atrás. Para explicarlo, Rutherford supuso que la carga positiva total del átomo se concentraba en un núcleo muy pequeño y que los electrones ocupaban el espacio externo del núcleo.

Esto, en 1911, era una idea revolucionaria, aunque hoy día está totalmente aceptada, y se la ha aceptado como el mayor cambio ocurrido en nuestra idea sobre la materia, desde el tiempo de los griegos. Esta teoría del núcleo sentó las bases para una nueva ciencia: la física nuclear.

^En 1912, Niels Bohr, el gran científico danés, se unió a Rutherford, y desarrollaron el modelo atómico de Bohr, con lo que se logró una aceptación general del átomo nuclear. En 1914, estalló la primera guerra mundial, y los científicos hubieron de abandonar los laboratorios. Tras algún tiempo de ausencia de Manchester, Rutherford volvió a su investigación académica, en el laboratorio desierto, dando comienzo a su tercer período de descubrimientos. Y, en 1918, ya estaba convencido de que podía demostrar experimentalmente la trasmutación artificial del nitrógeno (es decir, el cambio del átomo de nitrógeno en un átomo diferente).

Rutherford sólo puede ser igualado por Faraday en lo que respecte a la sencillez de los aparatos empleados, y su claro visión del significado de ¡os resultados experimentales. Sus tres grandes contribuciones a la teoría atómica fueron:
1°) Descubrió las leyes principales de la radiactividad y la Química de los elementos radiactivos naturales (1901-1906); 2°) descubrió el “núcleo” y ayudó al desarrollo del modelo nuclear del átomo (1909-1914), y 3°) descubrió la “trasmutación artificial” del nitrógeno (1917-1920).Rutherford estableció la naturaleza de las partículas alfa, recogiéndolas en un tubo de vidrio donde se había hecho el vacío.  Pasados unos días, el nivel de mercurio se había elevado, desplazando las partículas hacia la parte superior del tubo. El espectro de descarga entre los electrodos indicó la presencia de helio.

En 1919, Rutherford fue nombrado profesor del laboratorio Cavendish, de Cambridge, y rápidamente confirmó la certeza de dicha trasmutación artificial del nitrógeno. Para ello, hizo pasar partículas alfa provenientes del polonio, a través del gas nitrógeno; cuando una de ellas chocaba con un núcleo de nitrógeno, se desprendía un núcleo de hidrógeno y se formaba un núcleo de oxígeno. En 1920, llamó al núcleo de hidrógeno protón.

Y, pese a la gran cantidad de trabajo experimental que desarrollaba, Rutherford se encontró más ocupado cada vez en dirigir y organizar la investigación científica. El Cavendish creció en tamaño y fama bajo su dirección, pero ahora los descubrimientos eran realizados por la serie de hombres que trabajaban a sus órdenes, a los que él ayudaba con entusiasmo e interés. Ernesto Rutherford fue presidente de la Royal Society, desde 1925 a 1930, y, en 1931, fueron reconocidos públicamente sus grandes descubrimientos, mediante la concesión del título de Barón Rutherford de Nelson.
En plena actividad y con creciente optimismo en sus empresas científicas, la muerte sorprende a Rutherford, luego de una breve enfermedad, en octubre de 1937, siendo sus restos depositados en la abadía de Westminster.

DETECCIÓN DE PARTÍCULAS ALFA

esquema deteccion particula alfa
Una partícula alfa se puede detectar cuando choca con una pantalla de sulfuro de cinc, ya que produce una luz observable a través de un ocular (izquierda). Este método fue empleado por William Crookes. Ernesto Rutherford, junto con H. Geiger, inventó un método eléctrico para detectar partículas simples. En el aparato (derecha), se introducían, por unos instantes, partículas alfa en la cámara “C”. En esta cámara, el cilindro metálico “M” rodeaba el alambre aislado “W”, y se aplicaba un voltaje alto entre “M” y “W”. Cuando una partícula alfa chocaba con una molécula de gas en “C”, la molécula perdía un electrón, y éste electrón era acelerado en el campo eléctrico, chocando con una segunda molécula de gas, con lo que se liberaba un segundo electrón. Y volvía a repetirse, varias veces, toda la operación. De esta manera, se obtenía un flujo de electrones, que podía detectarse como un impulso eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°60
El Estallido Científico en el Siglo XX Trevor Williams