Efectos de una Explosión Nuclear

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Conceptos Básicos de Electrostática Cargas Eléctricas

EXPERIMENTO CON CARGA ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar. Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos. Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto. Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro. La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente. Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador. el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco. Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico. Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

El Atomo Para Niños y Principiantes Explicación Sencilla

PARA NIÑOS: PARTÍCULAS Y ESTRUCTURA DEL ÁTOMO

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales, cuando vamos de paseo vemos correr el agua de un río, las piedras de grandes montañas, la tierra en los caminos, y seguramente vamos viajando sobre un automóvil que está construído con diversos y distintos materiales como: acero, plástico, tela, cuero, goma, etc. Pero bien,…esos materiales ¿de que están hechos?,….esa pregunta también se la hicieron hace unos 2500 años en Grecia Antigua, grandes hombres dedicados a la ciencia , como Thales de Mileto, Empédocles y Demócrito, todos ellos vivieron entre 600 y 400 antes de Cristo y aquí te los presento:

thales, empédocles y demócrito

Cada uno de ellos, y también otros pensadores mas, tenían su propia teoría o forma de explicar los elementos que constituían la materia, por ejemplo para Thales era el Agua, para Empédocles era no solo el Agua, sino también la Tierra, el Fuego y el Aire, es decir los cuatro elementos fundamentales.

Pero un día llegó el señor Demócrito de una ciudad griega llamada Abdera, y afirmó que para saber la composición de la materia, deberíamos ir cortándola por mitad sucesivamente. Imagina una hoja de papel que la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso?.

Según su idea, de dividir constantemente un cuerpo de cualquier material, obtendríamos un trozo cada vez mas pequeño, hasta obtener una porción mínima que seria imposible volver a cortarla es decir, esa porción seria INDIVISIBLE.  A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo.

Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto que tanto amaban los griegos en sus fogosas discusiones.

atomo democrito

Imagina que deseas conocer como está formada la manzana, para ello (según Demócrito) debes cortar indefinidamente la misma hasta llegar a una mínima porción “atómica”, y ese es el elemento fundamental con la que está consituída la fruta.

El mundo material, el mundo que nuestros sentidos conocen está formado por gases, como el oxígeno de aire que respiramos en este momento o el hidrógeno, de líquidos, como el agua o el alcohol, de sólidos, como el hierro o el azúcar, o de las hojas, flores y frutos de un árbol, todos no son más que diferentes agrupaciones de un número inmenso de pequeñísimos de esos corpúsculos llamados átomos.

Los átomos son muy poco diferentes los unos de los otros, por ejemplo hay átomos del material HIERRO, átomos de OXIGENO, átomos de COBRE, átomos de CARBONO, etc. En la naturaleza hay 103 elementos conocidos, entre naturales y artificiales (porque los ha hecho el hombre en el laboratorio, hoy puede haber algunos más).

Despúes de muchos años de experimentos e investigaciones los físicos del siglo XX pudieron penetrar dentro de “esa porción indivisible”,  y observaron que además existían otras partículas aún más pequeñas que los átomos y que eran las partes constituyentes del mismo.

La forma de dibujar un átomo, es la siguiente:

esquema de un átomo

Los científicos notaron que el átomo tiene en su centro casi una “esferita” que en su interior contiene dos partículas llamada: PROTONES Y NEUTRONES.

Por otro lado también observaron que alrededor de ese núcleo, giraban a gran velocidad otras partículas más pequeñas que las del núcleo y las llamaron: ELECTRONES.

Las partículas ELECTRÓN Y PROTÓN, tienen una carga eléctrica, en el primero la carga es NEGATIVA y el segundo la carga eléctrica es POSITIVA. Los NEUTRONES no poseen carga y el nombre deriva de la palabra “neutro”.

El atómo está equilibrado eléctricamente, es decir por ejemplo, que si hay 10 electrones girando (10 cargas negativas), también ese átomo tiene 1o protones en su núcleo (10 cargas positivas)

En el esquema de abajo, vemos el átomo de HELIO, material con que están hechas las estrellas. Tiene dos protones y dos electrones. La cantidad de neutrones es variable, aqui también tiene dos.

composicion del atomo: protones, neutrones, electrones

¿Que es lo que hace que un material sea Hierro, otro Helio y otro por ejemplo Oro?…LA CANTIDAD DE PROTONES contenidos en el núcleo, cantidad que se denomina: NÚMERO ATÓMICO, en el caso del esquema: Na=2

A la suma de la cantidad de protones mas neutrones la llamamos: NUMERO MÁSICO, y en el caso que nos ocupa es: Nm=2+2=4.-

Esos mas de 100 elementos que forman la naturaleza, fueron agrupados en una tabla para ser estudiados y se la llama: Tabla Periódica de los Elementos Químicos o también Tabla de Mendeleiev

tabla de mendeliev

Ampliar Esta Tabla

Observa que cada elemento (químico) tiene una ubicación, y el orden es por el Número Atómico de cada elemento: primero es el HIDRÓGENO, con un protón, le sigue el HELIO con dos protones, luego el LITIO con tres protones, el BERILIO con cuatro protones, y asi hasta el último elemento N° 103 , llamado LAWRENCIO. Hay otros números en columna a la derecha, que luego veremos y nos muestra las capas y subcapas de los electrones. Los colores de los grupos es para diferenciar los tipos de elementos, entre alcalinos, lantánidos, no metales, metales ,etc. cada uno con sus propias características, como el brillo, conductividad electrica, etc.

estructura atomo de hidrógeno

LAS MEDIDAS DEL ÁTOMO:

Para los seres humanos es muy díficil imaginar distancias tan pequeñas, como es de la partículas atómicas, pero podemos decir que esas partículas, tienen un diámetro medio de unas diez millonésimas de milímetro, se necesitarían más de diez millones de ellas colocadas en línea recta para tener un milímetro de longitud.

1 mm.= 10.000.000 de partículas

El núcleo, que es parte predominante, es decir, la mas grande, de forma esférica, que posee un radio de unos  0,0000000000001 centímetros, UN UNO CON TRECE CEROS, como se puede ver es una medida sumamente chica para poder imaginarla. El diámetro de los electrones es aún mas pequeño.

Respecto al peso de esas partículas, no vamos a dar números, pero es un UNO CON VEINTIOCHO CEROS de gramo, y el peso del protón es 1836 veces el peso del eléctrón. A este concepto le llamamos MASA DE LA PARTÍCULA.

Dijimos que los electrones giran muy rapidamente alrededor del nucleo, en una trayectoria circular, y el radio de esa circuferencia es de UN UNO CON 11 CEROS de metro, 0,00000000001 m. Para las dimensiones del átomo esa medida es grande, porque esa medidas es 25.000 veces mas grande que el radio del núcleo.

Para llevarlo a una escala “mas humana”, piensa que si el nucleo tiene la medida de una moneda, el radio del electrón seria de unos 250 metros.

Presentamos un esquema aproximado de las dimensiones a modo de aclarar un poco mas la idea, pero como consejo solo trata solo de recordar que un átomo mide 10.000.000 veces que 1 metro.

ESQUEMA medidas del atomo

NIVELES DE ENERGIA DE LOS ELECTRONES

Debemos aclarar que esas partículas son tan pequeñas que no pueden observarse, y cuando enviamos un rayo de luz para intentar verla, esa partícula cambia de posición en el mismo instante, entonces es imposible hablar de la posición exacta en el espacio que rodea al núcleo. Como consecuencia nació a principio del siglo XX una nueva física, conocida como física cuántica, que recurre a la PROBABILIDAD  de encontrar o “ver” un electrón en la región que rodea al núcleo de un átomo.

A partir de ese concepto hablamos de la CERTEZA de que un electrón se encuentre girando en cierta área que rodea al núcleo. Existen varias áreas o regiones de giro, y cada una le corresponde lo que llamamos NIVEL DE ENERGIA, para cada nivel hay un NÚMERO MAXIMO de electrones que pueden girar. Hay una fórmula muy simple que permite determinar la cantidad de electrones por nivel de energía o CAPA, y es la siguiente: 2.n².

Observa como se calcula el número de electrones por cada nivel en el esquema de abajo, usando la fórmula anterior.

niveles de energia de los electrones

Y finalmente cada nivel tiene un subnivel o subcapa que también permite que en esa zona giren electrones, a cada subnivel se lo llama. s , p , d , f, y el máximo de electrones es de 2, 6, 10 y 14 respectivamente.

Puedes observar la tabla siguiente:

tabla de subniveles de energia atomica

Resumiendo lo antedicho, podemos concluír que:

Entonces para el nivel es el 1, sabemos que solo puede contener 2 electrones, por lo que el nivel 1 tiene una subcapa llamada s, que permite 2 electrones.

Para el nivel 2, la cantidad de electrones es de 8, por lo que tendrá dos capas, la s y la p, con 2 y 6 electrones, es decir 8 en total.

Para el nivel 3 , la cantidad de electrones es de 18, entoces tendra tres capas, s, p y d , con 2, 6 y 10  electrones y l suma es 18.

En la tabla siguiente lo podemos analizar mas fácil, para tres capas.

tabla de capas y subcapas de los atomo

Entonces veamos por ejemplo ahora el átomo de NIQUEL, que según la tabla de los elementos nos indica que tiene 28 protones, entonces el numero de electrones también será de 28, y estarán ubicados de la siguiente manera:

En el NIVEL 1, tendrá 2 en la subcapa s , + NIVEL 2 con 8 en dos cubcapas ( s, p)  + NIVEL 3 con 18 en tres subcapas (s,p,d), cuya suma es de 28 electrones.

AMPLIACIÓN SOBRE LA ENERGÍA NUCLEAR: Los átomos de un elemento tienen siempre el mismo número atómico, pero pueden poseer distinto número de masa, por contar con un número diferente de neutrones; tales átomos se denominan isótopos.

El edificio del átomo, centro de enormes fuerzas que se ejercen entre cargas opuestas, no presenta una estabilidad ilimitada. El núcleo puede desintegrarse y liberar energía atómica, más correctamente energía nuclear, pues el proceso tiene lugar directamente en el núcleo del átomo.

Los fenómenos que conducen a la liberación de tal energía son la fisión y la fusión de núcleos. La fisión, traducción fonética de la voz inglesa fission, significa escisión, división o partición de la masa de un núcleo pesado en dos fragmentos, que originan los núcleos de otros dos átomos más livianos y de pesos atómicos más o menos iguales, y la fusión, unión de dos núcleos de átomos livianos para formar el núcleo de uno más pesado.

En ambos casds, la liberación de cantidades extraordinarias de energía se debe a la transformación de cierta cantidad de masa de los núcleos de los átomos originales de energía. Esta se determina por medio de la fórmula:

E = m.c², establecida por Albert Einstein.

En ella, E es la energía liberada, m la masa transformada y c la velocidad de la luz. Gracias a dicha transformación, destrucción o aniquilamiento de la masa o materia se puede, de una pequeña cantidad de ella, obtener una cantidad enorme de energía. Así, de la fisión de 1 kilogramo de uranio puede obtenerse una cantidad de energía equivalente a la que produce la combustión de 2.500 toneladas de carbón.

Las aplicaciones de la energía nuclear son numerosas. La bomba atómica o bomba A y la bomba de hidrógeno o bomba H se pueden emplear para excavar grandes canales, demoler rocas, etc. Los reactores nucleares sirven para producir energía eléctrica, así como para propulsar buques. También se utilizan piara obtener isótopos artificiales que tienen aplicaciones en medicina, agricultura e industria.

Fuente Consultada:
CIENCIA JOVEN Diccionarios Enciclopedico Tomo V – El Átomo y su Energía-

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Fuerzas en un Plano Inclinado Descomposicion del Peso

DESCOPOSICIÓN DE UN PESO SOBRE UN PLANO INCLINADO

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión. No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo. Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso. Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py. Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py. Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, O=@ (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @. Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo. En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente. El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra. Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Concepto de Fuerza Centrífuga Aplicaciones Prácticas

Si se hace girar con rapidez un balde parcialmente lleno de agua, con los brazos extendidos alrededor del cuerpo, el contenido no se derrama, aun cuando el balde esté volcado sobre un costado. El principio responsable de este fenómeno es conocido por los físicos con el nombre de fuerza centrifuga.

Al mismo tiempo que se hace girar el balde, el agua tiende a permanecer dentro de éste, presionada hacia el fondo (es decir, hacia afuera con respecto a quien hace girar el balde) o al centro de giro por la fuerza centrífuga. Este es un ejemplo bastante directo de como se origina esta fuerza, aunque hay muchas otras aplicaciones más prácticas.

Sabemos, según las leyes de los cuerpos en movimiento, enunciadas por Isaac Newton, que las fuerzas siempre se originan por pares, siendo cada una de las mismas de igual valor y sentido contrario. La fuerza que se necesita para mantener un cuerpo que gira dentro de su trayectoria, evitando que se vaya hacia afuera, se conoce como fuerza centrípeta y es igual pero de sentido contrario a la fuerza centrífuga.

Fuerza centrífuga en un balde girando. El agua no sale del balde porque es empujada hacia el exterior o fondo.

En el caso del ejemplo mencionado, esta fuerza centrípeta se manifiesta como el esfuerzo realizado por el brazo para sostener el balde. Podemos ver, bastante fácilmente, cómo estas fuerzas se relacionan con la velocidad a la cual el objeto se mueve dentro de su órbita. Un ejemplo emocionante lo constituye, en el espec táculo circense, un motociclista que da vueltas dentro de una gran esfera de malla metálica.

Cuando su máquina se mueve lentamente, el motociclista no puede subir muy alto, pero a velocidades mayores la fuerza centrífuga que tiende a lanzarlo hacia afuera es tan grande, que puede trepar verticalmente hasta la cúspide de la esfera y girar sin perder contacto con la “pista”, a pesar de desplazarse “cabeza abajo”.

La inclinación que se observa en las curvas de las vías férreas obedece al mismo principio: la fuerza centrífuga que impulsa hacía afuera al tren cuando éste toma la curva, es contrarrestada por la fuerza centrípeta que se manifiesta cuando el costado de las ruedas presiona sobre los rieles. Este esfuerzo se reduce considerablemente inclinando las vías en un cierto ángulo, de modo que el riel exterior (el más alejado del centro de la curva) esté a mayor altura que el interior.

Otro ejemplo parecido lo constituye aquella famosa primera pista de Avus, en Alemania, donde ya en el año 1937, los promedios de velocidad establecidos por los coches de carrera llegaban a 261 Km./h., con records hasta de 280 Km./h. Esto podía lograrse porque aquella pista tenía curvas construidas con un extraordinario peralte que llegaba a los 45 grados. De esta manera, se conseguía precisamente vencer la gran fuerza centrífuga que esas velocidades provocaban en los giros. Una idea de dicha fuerza la da el cálculo de que, en el momento de paso sobre la curva, los neumáticos debían soportar nada menos que 3 veces el peso de la máquina.

Peralte o Inclinacion de la Carretera

Los llamados trajes de presión, creados por los japoneses durante la segunda guerra mundial y adoptados luego por casi todas las demás fuerzas aéreas, constituyen una solución bastante aceptable al problema de la tremenda fuerza centrífuga a que está sometido el piloto en un combate aéreo. Este traje evita que, en los giros violentos, la sangre se desplace y se agolpe por centrifugación, con el consiguiente desvanecimiento y pérdida momentánea de la visión. Pero no siempre ¡a fuerza centrífuga resulta negativa; muchas veces el hombre se vale de ella para obtener provecho.

Un buen ejemplo de aplicación práctica de este principio lo tenemos en el aparato denominado centrifuga. Si tenemos una suspensión de un sólido en un líquido, o una mezcla de líquidos de diferentes densidades, es decir, que tienen relaciones diferentes de peso a volumen (por ejemplo crema y leche), y que han sido mezclados hasta formar una emulsión, podemos separarla si la dejamos reposar tiempo suficiente.

Una centrifugadora es una máquina que pone en rotación una muestra para –por fuerza centrífuga– acelerar la decantación o la sedimentación de sus componentes o fases (generalmente una sólida y una líquida), según su densidad. Existen diversos tipos, comúnmente para objetivos específicos.

La atracción que ejerce la gravedad sobre la leche es mayor que sobre la crema, menos densa, que va a la superficie. Este proceso se puede acelerar centrifugando la mezcla (estas centrifugadoras tienen la forma de un cuenco que gira rápidamente). De este modo la leche es impulsada más lejos del centro que la crema, la cual, por no ser tan densa, no sufre con tanta intensidad los efectos de la fuerza centrífuga que se origina.

También bombas centrífugas y turbinas centrífugas que trabajan con líquidos y aire, respectivamente, son un acierto mecánico. Debemos recordar que los turborreactores centrífugos reciben este nombre porque su alimentación de aire lo produce una turbina de ese tipo.

Bomba centrifugadora

En la fundición de metales, las inyectaras centrífugas son insustituibles por la precisión, seguridad y calidad de los colados. Este tipo de inyectora recibe el metal fundido por un tragadero central, y mantiene adosada una batería de matrices a su contorno. Girando a gran velocidad, el metal es centrifugado con gran presión, e inyectado al interior de las matrices.

RAZÓN POR LA CUAL LA TIERRA NO ES ATRAÍDA POR EL SOL

Esquema Sistema Tierra-Sol

Esto se debe a que, a pesar de la atracción gravitacional (fuerza de gravedad) la fuerza centrífuga tiende constantemente a empujar a la Tierra hacia afuera. En este caso, las dos fuerzas están equilibradas. La fuerza de gravedad entre el Sol y la Tierra actúa como una fuerza centrípeta, que tiende a atraer al planeta, que gira en su órbita, hacia el Sol. La fuerza centrífuga originada por el movimiento de rotación, tiende a empujar al planeta en sentido contrario, es decir, fuera del Sol., El resultado es que la distancia entre el Sol y la Tierra se mantiene constante, suponiendo que la velocidad del planeta también se mantenga igual (en realidad, la velocidad de la Tierra sufre pequeñas variaciones, con la consiguiente alteración en la distancia al Sol). El mismo principio se aplica a los satélites artificiales que se ponen en órbita para girar alrededor de la Tierra. La atracción de la gravedad equilibra las fuerzas centrífugas, y los satélites pueden moverse a distancia más o menos constante de la Tierra, “suponiendo que su velocidad sea también constante”. De todos modos, la velocidad se reduce gradualmente, a causa del rozamiento con la atmósfera, y los satélites tienden a caer hacia la Tierra.

Formula de la Fuerza Centrípeta:

Diagrama de un cuerpo girando, Fuerza Centrifuga

Ejemplo: si se toma una piedra de 2 Kg. de masa, atada a una cuerda y se la hace girar con un radio de 1,2 m. a razon de 2 vueltas por segundo. Cuanto vale la fuerza centrífuga que debe soportar la cuerda?.

La masa es de 2 Kg., el radio: 1,20 metro, pero nos falta la velocidad tangencial Ve, pues la del problema es la velocidad angular.

Para ello se sabe que dá dos vueltas en un segundo, entonces el recorrido es, dos veces el perímetro de la circunferencia por segundo. Podemos hallarlo asi: 3.14. 1.2. 2=7.53 m. cada vuelta , por dos es: 15,07 m. distancia que la masa recorre en 1 segundo, por lo tanto la velocidad tangencial es: 15,07 m/seg.

Aplicando la formula se tiene que Fc= ( 15,07 )². 2 /1,2² =454/1.44=315,27 Newton

Fuente Consultada:
Revista TECNIRAMA N°21 Enciclopedia de la Ciencia y La Tecnología -La Fuerza Centrífuga-

Cálculo del Radio de la Orbita en el Átomo de Hidrógeno

Cálculo del radio de la primera órbita del átomo de hidrógeno
Como es sabido, un átomo puede compararse a un sistema solar en miniatura. El centro, o núcleo, es relativamente pesado y estacionario, mientras que los electrones giran alrededor, en forma similar a como los planetas giran alrededor del Sol.

En general, las distancias electrón-núcleo son del orden de  10-8 cm, 0,00000001 cm.

esquema radio del hidrogeno

En un átomo la fuerza que mantiene a los electrones en sus órbitas no es gravitatoria, sino de naturaleza electrostática, ya que el protón (único componente del núcleo en el átomo de hidrógeno) y el electrón tienen cargas contrarias.

Neils Borh

Niels Bohr

Al igual que la fuerza gravitatoria, la electrostático es inversamente proporcional al cuadrado de las distancias.

Teniendo en cuenta que en una órbita circular la fuerza centrípeta está constituida por esta fuerza de atracción electrostática, e introduciendo el postulado de Niels Bohr, que establece que el momento angular del electrón en una órbita circular está cuantificado, es decir, sólo puede alcanzar valores enteros de h/2.¶ , donde h es la constante de Planck,   obtendríamos  la  siguiente expresión:

formula radio orbita del hidrogeno

que nos permite hallar para la distancia requerida el valor de 5.28.10-9 cm., sustituyendo las constantes n (en este caso es igual a 1, por ser la primera órbita), h (constante de Planck), m y e (masa y carga del electrón) por sus valores respectivos.

Valores de:
h=6.62606957 ×10 -34 J×s
m=9,109 382 91×10−31 Kg.
e=1,602 × 10-19 culombios

El valor obtenido, conocido como radio de Borh es: 5,291 772 0859×10−11 m.

 

Calcular la Velocidad de Una Bala Pendulo Balistico

HALLAR LA VELOCIDAD DE UNA BALA

La velocidad de una bala de rifle o de pistola puede medirse con un aparato llamado péndulo balístico. Consiste en esencia de un bloque de madera o dé plomo, de masa M, suspendido por una cuerda, como se indica en la figura.

pednulo balistico calcula velocidad de una bala

Si disparamos una bala de rifle de masa m y velocidad v contra dicho bloque, obligaremos a éste a recorrer el arco @, que puede ser medido fácilmente. Cuando la bala ha penetrado en el bloque, el conjunto se mueve con una velocidad V, y de acuerdo con el principio de conservación de la cantidad de movimiento, podemos escribir:

m . v = (M + m).V

Para hallar el valor de v, velocidad del proyectil antes de que se produzca el impacto, sólo nos resta pues conocer el valor de V, velocidad del conjunto después de que la balo se ha incrustado en el bloque.

Esta velocidad se puede hallar fácilmente aplicando el principio de conservación de la energía al movimiento de (M+ m) desde A, donde la energía es totalmente cinética (y potencial nula), hasta el final de su recorrido B, donde toda la energía es potencial (y cinética cero)

1/2 (M + m) V² = (M + m) g. h

Despejando V de esta fórmula de conservación de la energía es: V= (2.g.h)½ (elevado a 1/2 ó raíz cuadrada)

Midiendo directamente h, o hallando su valor a partir de l , @ (usando trigonometría) encontraremos V, que, sustituida en la primera fórmula, nos indicará el valor de la velocidad de la bala antes de producirse el impacto (g representa la aceleración de la gravedad, es decir, aproximadamente 9,8 m/seg²).

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía. El proceso fue larguísimo. Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga. Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas. Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia. 3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento. 1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  “Principia”,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA

Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Energía Mareomotriz Producir Electricidad Con Las Mareas

USINAS EECTRICAS QUE USAN LA FUERZAS DE LAS MAREAS

Hasta ahora, el hombre ha hecho muy poco para aprovechar la energía de los mares y utilizarla convenientemente. La central mareomotriz francesa de la Ranee, fue la primera en su estilo en el mundo, que produzcía electricidad a partir del regular flujo y reflujo de las mareas.

Ocurre que, en este lugar particular de la costa francesa, la diferencia entre pleamar y bajamar es lo suficientemente grande para poder hacer funcionar una planta eficaz. En realidad, hay pocos sitios en el globo terrestre donde el nivel del agua sube y baja lo suficiente como para que valga la pena llevar a cabo la operación.

El desnivel entre la pleamar y la bajamar en el estuario de la Rance tiene un valor medio de 11,4 metros y, por otra parte, la electricidad producida puede consumirse inmediatamente en la región. Por estas circunstancias, el proyecto resulta práctico. Dos veces en cada día lunar (24 horas y 50 minutos), una “ola astronómica” llega del Atlántico y penetra en el Canal de la Mancha.  Su potencia bruta se ha estimado en  56 millones de cabullos vapor.

Aproximadamente, una mitad de esta potencia se pierde en el Canal, al romper las olas y al rozar con el fondo del mar y a lo largo de la costa. Lo que los ingenieros intentan aprovechar con sus centrales mareomotrices es una parte de esta energía perdida.

El principio de la operación, en su conjunto, es sencillo. El hombre lo ha utilizado desde la antigüedad, con ruedas de molino impulsadas por la marea. Un canal, con una compuerta abierta cuando sube la marea, se llenará de agua.

Ésta podrá ser retenida cerrando la compuerta y, posteriormente, se utilizará para producir trabajo o para hacer funcionar algún tipo de planta generadora, cuando la marea baje.

Desgraciadamente, esta teoría tan sencilla fallará en la práctica, porque esto significa que sólo se puede producir electricidad cuando la marea está bajando, y una generación momentánea de electricidad en la madrugada no es útil a nadie. Se necesita una producción regular, para suministrar energía en el tiempo preciso, y esto exige una organización mucho más compleja.

En realidad, pura poder armonizar la producción de electricidad con la demanda se necesita una calculadora que dirija las operaciones de abrir y cerrar las compuertas.

VEINTICUATRO CENTRALES ELÉCTRICAS EN  UNA
La central de la Rance organiza su producción de electricidad por medio de veinticuatro elementos, que, para el espectador, aparecen como veinticuatro canales que corren a lo largo de una gran presa, construida a través del extremo del estuario de la Rance.

El conjunto tiene una longitud total de 750 m, y consta de Oeste a Este de:
  • Una esclusa que permite la navegación entre la parte embalsada y la parte de mar de la bahía, de 65 metros de largo por 13 metros de ancho.
  • Una planta mareomotriz de 390 metros de largo por 33 de ancho, formada por 24 turbinas “tipo bulbo”, de 10 MW cada una.
  • Un dique de entronque de 163 metros de largo que completa el cierre del estuario entre la planta y el islote de Chalibert.
  • Una pesa movil de 115 metros de largo, provista de 6 válvulas de tipo “wagon”, capaces de funcionar a una diferencia de altura de la columna de agua de 10 metros; siendo su ancho de 15 metros cada una.
  • Una carretera de doble sentido que une Dinard con St-Malo, la cual se ve sometida al paso de 26.000 coches diarios, siendo 60.000 en verano.

Represa Mareomotriz en Francia Dos veces al día pasan 184 millones de metros cúbicos a través de la presa, cayendo de una altura de 11,4 metros y proporcionando energía. Se eligen los momentos del día en que se necesita más electricidad, las horas de máximo consumo.

Lo energía básica de una central eléctrica mareomotriz depende de dos factores: la superficie del canal en el que se retiene el agua y la diferencia entre la pleamar y la bajamar. Por tanto, conviene elegir un lugar en el que este valor sea el más grande posible. El estuario de la Ronce tiene una superficie de 22 kilómetros cuadrados y el nivel del agua varía 11,4 metros, como valor medio, en cada marea, lo que significa una cantidad de agua de 184 millones de metros cúbicos que entra y sale dos veces al día. El Mediterráneo no podría utilizarse nunca para producir energía eléctrica, ya que la marea sólo hace variar el nivel del mar en pocos decímetros.

Cuando la marea sube, el agua se precipita dentro de los canales, impulsando las turbinas a su paso. Así se produce mucha menos energía que cuando las presas están vaciándose; pero, a pesar de todo, todavía resulta conveniente.

Al final de la marea se utiliza energía de la red ordinaria, para que la turbina siga girando y llene la presa por encima del nivel exterior durante esta operación. Este aumento extra de nivel es un métodopara obtener algo a partir de nada.

Cuesta muy poco tomar electricidad del sistema para hacer subir, artificialmente, el nivel del agua, digamos 50 centímetros más. Pero tres horas después, cuando el nivel del agua en el exterior haya bajado unos 6 metros, esta misma agua tendrá una caída de 6 metros y, en la práctica, podrá proporcionar una energía 12 veces mayor que la empleada para subirla a su posición inicial.

El tiempo en que se almacena el agua a este nivel artificial depende de la demanda de electricidad. En el momento oportuno, el agua puede salir hacia el mar y proporcionar así la electricidad a la red. La turbina que convierte el flujo de agua en   una   corriente   eléctrica   utilizable   está sumergida y se encuentra en el paso de la corriente de agua. Está rodeada de agua por todas partes y posee una gran hélice, que es impulsada por la corriente.

La hélice es de láminas ajustables, que pueden orientarse de modo que se adapte a las condiciones imperantes. Se puede llegar a la turbina sumergida por medio de un túnel con una escalera.

Cuando una presa se ha vaciado y alcanzó el nivel de la marea que la rodea, se toma otra vez un poco de energía de la red para producir un sobrevaciado. Entonces, el ciclo completo puede empezar nuevamente.

Cada pequeña central funciona independientemente de las demás, para responder a las distintas necesidades de corriente, según las diferentes mareas. El número de ciclos diversos que se pueden utilizar en el curso de un mes es variable, permitiendo, así, una adaptación a las más diversas demandas de electricidad y el mejor aprovechamiento de toda clase de mareas.

Es necesario tener en cuenta el hecho de que las mareas se retrasan 50 minutos cada día y no tienen siempre la misma amplitud. Se calcula que la producción anual de la central será de unos 540 millones de kilovatios-hora por año, producción muy pequeña para una central eléctrica. Pero el combustible no faltará nunca y la planta será una experiencia útil para decidir si se puede emplear el mismo principio en otro lugar del globo terráqueo.

esquema represa mareomotriz

La turbina, que está sumergida y se encuentra en el paso de la corriente de agua, gira,
proporcionando   una   pequeña   cantidad   de   electricidad.

Se toma de la red una pequeña cantidad de electricidad,
para elevar artificialmente el nivel del agua  en el estuario.

Represa mareomotriz

A medida que se vacía el embalse, la turbina produce una
gran cantidad de electricidad en el sistema.

Cuando el embalse está vacio, se toma un poco do electricidad para hacer
girar la turbina y vaciar todavía más la presa.

FUENTES DE ENERGÍA ELÉCTRICA
Casi toda la energía eléctrica producida actualmente prosede de combustible! extraídos de la Tierra, que pueden encontrarse en una u otra forma. Estos combustibles —carbón, petróleo y uranio— se extraen, retiran y trasporté?; antes de utilizarlos para trasformar el agua en el vapor que hará funcionar los generadores eléctricos. Además de estas fuentes de energía, existen otras —ríos de corriente rápida y el calor procedente del Sol.

En todos los métodos convencionales, la energía encerrada en el combustible se convierte, primero, en energía calorífica. En el carbón y en el petróleo, lo que se convierte es energía química; en el caso del uranio se utiliza la energía desprendida en la fisión controlada de los núcleos de uranio.

En la instalación de la Ranee, la energía mecánica de la marea se convertirá directamente en energía eléctrica.

El procedimiento es similar, en principio, a las centrales hidroeléctricas que funcionan en todo el mundo, mediante la energía mecánica que libera el agua al caer de un nivel a otro. Esta energía se convierte directamente en electricidad Este proyecto de la Ranee también se parece mucho a otros de almacenamiento por bombeo, ya en servicio en Luxemburgo (en Vianden) y en el país de Gales (en Ffestinlog).

En ambos proyectos, como en el de la Ranee, sólo se pers fluir el agua a través de los equipos generadores cuando se requiere, es decir, cuando hay una demanda en el circuito eléctrico. En los proyectos de almacenamiento por bombeo, el agua se hace subir a una colina desde una reserva hasta otra más elevada, en los momentos del día en que no hay una gran demanda de electricidad. Se guarda hasta que la demanda alcanza un máximo y entonces se libera, dejándosela fluir a través de los equipos generadores, para producir un suplemento de energía eléctrica, muy necesario.

Otro ejemplo de conversión de una energía natural es la utilización de la energía solar. Una gran cantidad de energía radiante procedente del Sol alcanza la superficie de la Tierra durante el día y puede utilizarse para trasformar agua en vapor. Este vapor puede hacer funcionar turbinas generadoras. Tales proyectos se han puesto en marcha en Rusia a partir de la década del 60´.

Fuente Consultada
Enciclopedia TECNIRAMA Fasc. N° 118 Electricidad Producida Por Las Mareas

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Funcionamiento de Olla a Presión Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, “inventor del reloj de péndulo”, como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la “bomba al vacío”, al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el “digestor”, o “baño maría de rosca”, que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: “Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida”, y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

Concepto de Calor Latente Investigación de Black Joseph

PRIMERAS INVESTIGACIONES EN CALORIMETRÍA

Una de las formas de energía más familiar para nosotros es el calor. Diariamente hacemos uso de él para calentar nuestra casa, para preparar la comida, etc. La energía calorífica es debida al movimiento de las moléculas y de los átomos. La experiencia nos enseña que la energía de un cuerpo puede transformarse en calor, siendo también posible que la energía térmica se convierta en trabajo, como sucede en los motores de explosión o en las máquinas térmicas. Por todo ello decimos que el calor es una forma de energía.

DIFERENCIA ENTRE CALOR Y TEMPERATURA: Actualmente, está muy bien determinada la diferencia entre calor y temperatura, a pesar de que algunos estudiantes puedan confundir estos dos conceptos. Calor es la energia necesaria para calentar un cuerpo y temperatura es una medida de su grado de calor. Cuanto mas energía entreguemos mas temperatura tendrá el cuerpo.

Para pensar este tema, imaginemos que debemos calentar 1 litro de agua de 10°C a 20°C, es decir , elevarla 10°C mas. Para lograrlo debemos entregar energía a esa masa de agua, por ejemplo colocarla sobre la hornalla de una cocina. Observaremos que a medida que pasa el tiempo el agua se pone mas caliente, por lo que podemos concluir que a medida que entregamos energía el agua aumenta su temperatura. Vemos que hay dos conceptos definidos por un lado la cantidad de energía o calor entregado y por otro la medida de su temperatura.

Si por ejemplo ahora tenemos que calentar 2 litros de agua de 10°C a 20°C, entonces necesitaremos el doble de energia entregada, para lograr la misma temperatura.

Para medir la energia entregada en forma de calor, se define la caloría que es la cantidad de calor necesaria para calentar de 14°C a 15 °C un gramo de agua. La unidad así definida corresponde a una cantidad de calor muy pequeña, por lo que, generalmente, en la práctica se utiliza la kilocaloría, que corresponde a 1.000 calorías.

Se usa por definción de  14 a 15°C solo como una medida de referencia, en realidad lo que
objetivamente se quiere indicar, es que el aumento sea de 1°C.

Para medir temperaturas utilizamos un termómetro con diversas escalas, pero la mas popular es grados centígrados o Celsius, creador de esta escala, que comienza a O° cuando el hielo se congela y finaliza en 100°C cuando el agua entra en ebullición.

La temperatura (la intensidad de calor) puede medirse fácilmente usando un termómetro.  Por el contrario, para la medida del calor (cantidad de energía entregada para calentar la materia) se usa la caloría.

HISTORIA: Hace unos 200 años, Joseph Black llevó a cabo una serie de experimentos muy importantes sobre la medida del calor y las relaciones entre el calor y la temperatura.

Joseph Black fisico

Demostró que el hielo en fusión y el agua hirviendo, que produce vapor, absorben grandes cantidades de calor, a pesar de que no hay cambios de temperatura. Introdujo el concepto de calor latente, con el que designó el calor necesario para producir esos cambios de estado.

grafica calor latente

Observe por ejemplo que cuando la temperatura llega a B, por mas que se sigua agregando calor, la temperatura
permanece constante hasta que no haya mas sustancia sólida. Lo mismo ocurre para que la sustancia
cambie de líquida a gaseosa.

La energía necesaria para que una sustancia cambie de estado es: Q = m. L
Donde m es la masa de la sustancia considerada y L es una propiedad característica de cada sustancia, llamada calor latente. El calor latente se mide en Joule/kg en unidades del SI.

Black también descubrió que se necesitan distintas cantidades de calor para producir las mismas elevaciones de temperatura en masas iguales de sustancias diferentes. Por ejemplo, para aumentar la temperatura del agua de 15° a 25° hace falta aplicar 1,7 veces más calor que para producir el mismo cambio de temperatura en una masa igual de alcohol.

Para explicar esta variación entre las diferentes sustancias, Black introdujo la idea de calor específico. Al realizar este trabajo, sentó las bases de la medida del calor —la calorimetría—, que sigue teniendo vigencia aún. Durante los 100 años anteriores, o más, los avances de la química habían estado obstaculizados por la teoría del flogisto. Sin embargo, como Black no aceptaba las teorías que no estuviesen apoyadas por pruebas experimentales, hizo varias aportaciones valiosas a la ciencia química.

calor latente

Black definió el “calor latente” como la cantidad de calor para cambiar de estado una sustancia

Hasta mediados del siglo XVIII, se sabía muy poco acerca de los gases y, de hecho, muchas personas aseguraban que sólo existía un gas (el aire). Un siglo antes (en 1640, para precisar más), van Helmont había descubierto el gas que hoy llamamos anhídrido carbónico; pero, a causa del incremento de la teoría del flogisto, no se llegó a comprender la importancia de este hallazgo.

Black redescubrió el anhídrido carbónico en 1754, haciendo experimentos con dos álcalis débiles: los carbonatas de magnesio y de calcio. Comprobó que cuando estas sustancias se calientan, cada una de ellas produce un álcali más fuerte, liberando, al mismo tiempo, aire fijo (o sea, el anhídrido carbónico). El peso del álcali fuerte es menor que el del álcali débil del que procede.

Joseph Black nació en 1728, en Burdeos (Francia), de padres que descendían de escoceses. Después de pasar seis años en la escuela en Belfast, en 1746, ingresó a la Universidad de Glasgow, para estudiar química y medicina. En 1756, llegó a ser profesor de anatomía y de química en Glasgow.

Al cabo de 10 años pasó a la cátedra de medicina y química de la Universidad de Edimburgo. Black era muy popular entre los estudiantes porque preparaba concienzudamente los cursos y sus clases estaban ilustradas con muchos experimentos.

Al mismo tiempo que hacía notables aportaciones a la química y a la física, encontró tiempo suficiente para ejercer la medicina. Murió apaciblemente, todavía ocupando su cátedra, a la edad de 71 años.

Calor especifico

También definió el calor especifico, para tener en cuenta las diferentes cantidades de calor necesarias para producir un mismo aumento de temperatura en masas iguales de distintas sustancias.

No todos los materiales cambian su temperatura con la misma facilidad, ya que las partículas que los forman y las uniones entre ellas son diferentes. El calor específico Informa sobre la mayor o menor facilidad de las sustancias para aumentar su temperatura. El calor específico de una sustancia, ce, es la cantidad de calor necesaria para elevar un grado la temperatura de un kilogramo de dicha sustancia.

Algunos valores de calor específico expresado en: (Joule/Kg. °K)

Agua    4.180
Alcohol etílico    2.400
Hielo    2.090
Vapor de agua    1.920
Aire    1.000
Aceite    1.670
Aluminio    878
Vidrio    812
Arena    800
Hierro    460
Cobre    375
Mercurio    140
Plomo    125

Fuente Consultada:
Enciclopedia TECNIRAMA de la Ciencia y la Tecnología Fasc. N°112 Sabio Ilustre Joseph Black
Enciclopedia del Estudiante Tomo N°7 Física y Química

Conceptos Básicos de Electromagnetismo Historia y Aplicaciones

Antetodo se aclara que la explicación sobre este fenómeno físico es sólo descriptivo y tiene como objetivo describir las características mas imporatantes del mismo. Es una especie de descripción tecnico-histórica para darle al interesado una somera idea de como funciona la naturaleza en lo que respecta a la interacción de campos magnéticos y eléctricos.

De todas maneras es una interesante descripción  orientada a todos los curiosos de la física o para quellos estudiantes principiantes que desean adentrarse en el mundo del electromagnetismo. Leer con detenimiento estos conceptos básicos, ayudarán de sobremanera a enteder luego las explicaciones matemáticas o conclusiones finales de las experiencias de laboratorio.

Si el lector desea un estudio mas técnico, con las correspondientes deducciones matemáticas que implican un analisis profundo del fenómeno, debería hacer nuevas búsquedas, ya que existen muchos y excelentes sitios que explican muy didacticamente al electromagnetismo.

INTRODUCCIÓN HISTÓRICA: Los fenómenos conocidos de la electricidad estática y del magnetismo permanente han sido observados durante unos 2500 años. William Gilbert, en Inglaterra, realizó muchas investigaciones ingeniosas en electricidad y magnetismo. En 1600, publicó De Magnefe, el primer libro concluyente sobre este tema, donde explica muchas de las  semejanzas entre la electricidad y el magnetismo.

Una y otro poseen opuestos (positivo y negativo en electricidad, polo norte y polo sur en electromagnetismo). En ambos casos, los opuestos se atraen y los semejantes se repelen, y también en ambos casos la fuerza de la atracción o repulsión declina con el cuadrado de la distancia.

Nosotros, igual que los primeros observadores, hemos notado semejanzas entre los fenómenos relativos a la electricidad y los relacionados con el magnetismo.

Por ejemplo:
1.   Existen dos clases de concentración eléctrica —más y menos— y dos clases de concentración magnética  —norte y sur.
2.   Tanto en electricidad como en magnetismo, concentraciones del mismo nombre se repelen entre sí; mientras que concentraciones de nombre diferente se atraen mutuamente.
3.   Los efectos eléctricos y los magnéticos se describen  en función  de campos.
4.   En electricidad y en magnetismo, las fuerzas de atracción y repulsión están de acuerdo con la ley inversa  de  los cuadrados.
5.   Cuerpos apropiados pueden electrizarse frotándolos (como cuando se frota un objeto de plástico con una piel); análogamente, cuerpos apropiados pueden ser imantados por frotamiento (como cuando se frota una aguja de acero con un imán).
6.   Ni las cargas eléctricas, ni los polos magnéticos son visibles, ni tampoco los campos asociados, eléctrico o magnético. Tanto en electricidad como en magnetismo, las concentraciones y sus campos se conocen sólo por sus efectos.

Quizás podamos encontrar otras semejanzas. Se puede ver de qué modo ellas llevaron a los primeros científicos a sospechar que la electricidad y el magnetismo estaban íntimamente relacionados, siendo, posiblemente, manifestaciones distintas del mismo fenómeno fundamental.

Cuando en 1800, el físico italiano Alessandro Volta descubrió la primera pila electroquímica útil, los hombres de ciencia tuvieron la primera fuente segura de energía para hacer funcionar circuitos eléctricos. Todavía no se encontraban pruebas de alguna conexión entre los fenómenos eléctricos y magnéticos. Por consiguiente, en la primera mitad del siglo XIX los sabios opinaban que “a pesar de las semejanzas aparentes entre la electricidad y el magnetismo, estos dos fenómenos no están relacionados entre sí”.

Esta era la situación de 1819 cuando un profesor de ciencias danés, llamado Hans Christian Oersted, hizo una observación de gran importancia en este campo de la Física. Oersted, al parecer, había considerado y buscado un enlace entre la electricidad y el magnetismo.

Fisico Oerster

Hans Christian Oersted

De acuerdo con uno de sus alumnos, Oersted estaba utilizando una batería de las pilas voltaicas primitivas durante una de sus clases. En aquellos días, las baterías eran caras, difíciles de manejar y no duraban mucho tiempo.

Oersted deseaba usarla mientras fuera posible, así que colocó un alambre paralelo arriba de una brújula y cerró el circuito.

Posiblemente, Oersted trataba de demostrar a sus alumnos que la corriente eléctrica y el comportamiento de la brújula no estaban relacionados. Para su sorpresa, cuando cerró el circuito, la aguja de la brújula se movió y osciló a una posición que ya no era paralela al alambre. Oersted había tropezado con el fenómeno de que una corriente eléctrica está rodeada de un campo magnético.

Además, tenía su mente alerta y con el pensamiento abierto para reconocer un fenómeno inesperado   y   atribuirle   la   importancia   que   merecía.

Oersted efectuó muchos experimentos con estos nuevos fenómenos y, al principio del año siguiente, publicó una pequeña comunicación describiendo sus observaciones. Las noticias científicas viajan, en general, con rapidez y no pasó mucho tiempo cuando un gran número de investigadores capaces realizaban experiencias sobre electromagnetismo.

Entre ellos estaban Michael Faraday en Inglaterra, André Ampére en Francia y William Sturgeon, quien fabricó el primer electroimán con núcleo de hierro en 1823. Con toda seguridad el descubrimiento de Oersted, en su aula, fue un paso importante en el desarrollo de  los conceptos del electromagnetismo.

Una de las razones de que los efectos magnéticos de una corriente eléctrica fueran tan importantes es que introdujeron una nueva clase de fuerza. Todas las observaciones previas con cualquier tipo de fuerzas estaban relacionadas con acciones sobre la recta entre los cuerpos que producían la fuerza. Así, las fuerzas gravitacionales están siempre en la línea recta que une las dos masas; de este modo se comportan también las fuerzas atractivas y repulsivas entre cargas eléctricas y entre imanes.

Pero aquí, existía una fuerza donde la acción era perpendicular a la recta que une el alambre y la aguja de la brújula. Cuando Oersted colocó una corriente arriba y paralela a la brújula, la aguja giró alejándose de su posición paralela al alambre.

PARTE I: IMANES , MAGNETISMO Y CORRIENTES INDUCIDAS
En la Naturaleza existe un mineral, llamado magnetita por haber sido descubierto en la ciudad griega de Magnesia, que tiene la propiedad de atraer las limaduras de hierro. Este fenómeno se denomina magnetismo y los cuerpos que lo manifiestan se llaman imanes. Un imán tiene dos polos, uno en cada extremo, que llamanos Norte y Sur

Si tomamos un imán, que puede girar horizontalmente alrededor de su punto medio, y le acercamos un polo de otro imán se observa que los polos del mismo nombre se repelen y los de nombre distinto se atraen.

Al dividir un imán en varios trozos, cada uno de ellos, por pequeño que sea, posee los dos polos. Este comportamiento se explica suponiendo que los imanes están formados por una gran cantidad de minúsculos imanes ordenadamente dispuestos. Así, al frotar un trozo de hierro con con imán se ordenan los pequeños imanes que contiene el trozo de hierro, de tal modo que la acción magnética no se neutraliza entre ellos. El trozo de hierro así tratado manifiesta sus propiedades magnéticas y constituye un imán artificial.

Hoy se sabe que los imanes están formados por minúsculos imanes moleculares originados por el giro de electrones que dan lugar a corrientes eléctricas planas, y según el sentido de giro presentan una cara norte o una cara sur.

La región del espacio sensible a las acciones magnéticas se llama campo magnético.

Para visualizar el campo magnético, Michael Faraday (1791-1867), de quien hablaremos mas abajo, esparció limaduras de hierro sobre un papel colocado encima de un imán. Observó que las limaduras se situaban en líneas cerradas; es decir, líneas que parten de un polo del imán y que llegan al otro polo.

limaduras de hierro en un imán

Además, las líneas no se cortan. Estas líneas se llaman líneas de campo o de fuerza  y, por convenio, se dice que salen del polo norte y entran en el polo sur. No existe una expresión matemática sencilla que sirva para determinar el campo magnético en las inmediaciones de un imán, pero podemos decir que:

•  El campo magnético se reduce a medida que nos alejamos del imán.
•  El campo magnético depende del medio en el que situemos al imán.

Observemos el comportamiento de la brújula, frente al campo mágnetico que produce nuestro planeta.

El núcleo de la Tierra está compuesto  por una aleación de hierro y níquel. Este material es muy buen conductor de la electricidad y se mueve con facilidad por encontrarse en estado líquido.

La Tierra actúa como un imán: Campo magnético terrestre. Si tomamos una aguja imantada y la dejamos girar libremente, se orientará siempre en una misma dirección norte-sur. De ahí que al polo de un imán que se orienta hacia el norte geográfico le denominemos polo norte, y al otro polo del imán, polo sur. Esto quiere decir que la Tierra se comporta como un enorme imán. Y es debido a que a medida que la Tierra gira, también lo hace el hierro fundido que forma su núcleo.

El planeta Tierra es como un gran imán con dos polos.

 Los polos geográficos y los polos magnéticos de la Tierra no coinciden, es decir, que el eje  N-S
geográfico no es el mismo que el eje N-S magnético.

EXPLICACIÓN DE LAS EXPERIENCIAS:

Como parte de una demostración en clase, colocó la aguja de una brújula cerca de un alambre a través del cual pasaba corriente.

experimento de Oerster

Experimento de Oerster

La aguja dio una sacudida y no apuntó ni a la corriente ni en sentido contrario a ella, sino en una dirección perpendicular. 0rsted no ahondó en su descubrimiento, pero otros sí se basaron en él, y concluyeron:

1a-Antes de conectar la corriente eléctrica la aguja imantada se orienta al eje N-S geográfico.

1b-Al conectar el circuito eléctrico, la aguja tiende a orientarse perpendicularmente al hilo.

2a– Cambiamos el sentido de la corriente eléctrica invirtiendo las conexiones en los bornes de la pila.

Igual que en el primer experimento, antes de conectar la corriente eléctrica la aguja imantada se orienta al N-S geográfico. Pero al conectar ahora el circuito eléctrico, la aguja se orienta también perpendicularmente al hilo, aunque girando en dirección contraria a la efectuada anteriormente.

Las experiencias de Oersted demuestran que las cargas eléctricas en movimiento (corriente) crean un campo magnético, que es el causante de la desviación de la brújula; es decir, una corriente eléctrica crea a su alrededor un campo magnético.

•  La dirección del campo magnético depende del sentido de la corriente.
•  La intensidad del campo magnético depende de la intensidad de la corriente.
•  La intensidad del campo magnético disminuye con la distancia al conductor.

Llamamos campo magnético a la región del espacio en donde se puede apreciar los efectos del magnetismo, por ejemplo mientras la aguja se la brújula se desplaze hacia un costado, significa que estamos dentro de ese campo magnético. A medida que alejamos la brújula del conductor observaremos que el efecto se pierde pues el campo magnético creado desaparece. Para graficar un campo magnético utilizamos líneas circulares con flechas que muestran el sentido del campo y las denominamos: líneas de fuerza.

El físico francés André-Marie Ampére (1775-1836) quien continuó con el estudio de este fenómeno, dispuso dos alambres paralelos, uno de los cuales podía moverse libremente atrás y adelante. Cuando ambos alambres transportaban corriente en la misma dirección, se atraían de forma clara.

Ampere Fisico

André-Marie Ampére (1775-1836)

Si la corriente fluía en direcciones opuestas, se repelían. Si un alambre quedaba libre para girar, cuando las corrientes discurrían en direcciones opuestas, el alambre móvil describía un semicírculo, y cesaba de moverse cuando las corrientes tenían el mismo sentido en ambos alambres. Resultaba manifiesto que los alambres que transportaban una corriente eléctrica mostraban propiedades magnéticas.

Campo magnético creado por un conductor rectilíneo
Las líneas de fuerza del campo magnético creado por un conductor rectilíreo son circunferencias concéntricas y perpendiculares al conductor eléctrico. Para saber la dirección que llevan dichas líneas de fuerza nos ayudaremos con la regla de la mano derecha.

Regla de la mano derecha

Para aplicar dicha regla, realizaremos el siguiente proceso. Tomamos el hilo conductor con la mano derecha colocando el dedo pulgar extendido a lo largo del hilo en el sentido de la corriente. Los otros dedos de la mano indican el sentido de las líneas de fuerza del campo magnético creado.

Campo magnético creado por una espira
Una espira es un hilo conductor en forma de línea cerrada, pudiendo ser circular, rectangular, cuadrada, etc. Si por la espira hacemos circular una corriente eléctrica, el campo magnético creado se hace más Intenso en el Interior de ella. El sentido de las líneas de fuerza es el del avance de un sacacorchos que girase en el sentido de la corriente.

Campo magnético creado por un solenoide o bobina
Si en lugar de disponer de una sola espira, colocamos el hilo conductor en forma enrollada, obtendremos un solenoide o bobina. En este caso, el campo magnético creado por la corriente al pasar a través de la bobina será mucho mayor, puesto que el campo magnético final será la suma de campos creados por cada una de las espiras.

Así pues, en una bobina, el campo magnético será más intense cuanto mayor sea la intensidad de corriente que circule por el ella y el número de espiras que contenga la bobina. De esta forma, una bobina, por la que circule una corriente eléctrica equivaldría a un imán de barra. El sentido de las líneas de fuerza se determina a partir de cualquiera de sus espiras.

Solenoide

SOLENOIDE. Consiste en un conductor arrollado en hélice de modo que forme un cierto número de espiras circulares regularmente distribuidas unas a continuación de otras. Cuando una corriente eléctrica recorre el conductor, el solenoide adquiere las propiedades de un imán, con sus polos norte y sur correspondientes. Llegamos, pues, a la conclusión de que la corriente eléctrica crea un campo magnético. Las líneas de fuerza que en él se originan, por convenio, van del polo norte al polo sur en el exterior, y en sentido contrario por el interior. Para determinar el nombre de los polos de un solenoide se emplea una aguja imantada, hallándose que el extremo del solenoide por el que la corriente, visto desde fuera, circula por las espiras en el sentido de las agujas del reloj, es el polo sur, y el extremo opuesto es el polo norte.

ELECTROIMANES:

Como vimos anteriormente se puede obtener un campo magnético mayor a partir de corriente eléctrica si se acoplan muchas espiras, unas al lado de otras (por ejemplo, arrollando un hilo conductor), construyendo lo que se conoce como solenoide.

Para crear campos magnéticos aún más intensos, se construyen los electroimanes, que son solenoides en cuyo interior se aloja una barra de hierro dulce, es decir, un hierro libre de impurezas que tiene facilidad para imantarse temporalmente.

Cuando se hace circular corriente eléctrica por el solenoide, con centenares o miles de vueltas (es decir, centenares o miles de espiras), el campo magnético se refuerza extraordinariamente en su interior, y el solenoide se convierte en un poderoso imán con múltiples aplicaciones.

electroimán casero

Si arrollamos un conductor alrededor de una barra de hierro dulce (clavo) y hacemos pasar por
él la corriente eléctrica, tendremos un electroimán.

Al objeto de aumentar la intensidad del campo magnético creado por el electroimán, éstos se construyen en forma de herradura, pues así el espacio de aire que tienen que atravesar las líneas de fuerza para pasar de un polo a otro es menor.

Los electroimanes se emplean para obtener intensos campos magnéticos en motores y generadores. También se utilizan en timbres eléctricos, telégrafos y teléfonos, y actualmente se construyen gigantescos electroimanes para utilizarlos como grúas y para producir campos magnéticos intensos y uniformes, necesarios en trabajos de física nuclear.

Demos ahora un paso mas…

A partir de los descubrimientos de Oersted, algunos científicos de su época se plantearon si el efecto contrario podría ocurrir es decir, si un campo magnético sería o no capaz de generar una corriente eléctrica, algo que tendría unas interesantes consecuencias prácticas.

En 1831 Faraday observó que cuando se mueve un circuito cerrado a través de un campo magnético se origina una corriente eléctrica que recorre aquel circuito, y que se conoce con el nombre de corriente inducida. Dicha corriente cesa en el momento en que se interrumpe el movimiento.

induccion electromagnetica

Las experiencias de Faraday fueron las siguientes: tomó un  imán y lo colocó cerca de una bobina, la que tenía un conectado un medidor de corriente, llamado amperímetro o galvanómetro.

Pudo observar que cuando ambos elementos (imán-bobina) están en reposo, la corriente es nula, es decir, la aguja el amperimetro no se mueve.

Luego movió el iman hacia dentro de la bobina y notó que la aguja se movía, lo que determinó un pasaje de corriente por la misma. También notó que cuanto más rápido se desplazaba el imán mayor era la corriente medida.

Cuando el imán está en reposo, dentro o fuera de la bobina, no hay corriente y a aguja del galvanómetro permanece con medición nula.

También probó en sentido inverso, es decir, dejó inmovil el imán y desplazó la bobina y el efecto fue el mismo al antes explicado.

Conclusiones de Faraday: Inducción electromagnética
En todos los experimentos de Faraday, en los que se acerca un imán a un circuito cerrado o bobina, los efectos son los mismos si el imán permanece en reposo y es la bobina del circuito la que se mueve.

Faraday concluyó que para que se genere una corriente eléctrica en la bobina, es necesario que exista un movimiento relativo entre la bobina y el imán.

Si se mueve la bobina hacia el imán, hay una variación en el campo magnético en el circuito, pues el campo magnético es más intenso cerca del imán; si se mueve el imán hacia la bobina, el campo magnético también varía.

A la corriente generada se le llama corriente inducida y, al fenómeno, se le denomina inducción electromagnética.

Por lo tanto se obtiene energía eléctrica como consecuencia del movimiento del imán con respecto a la bobina o de la bobina con respecto al imán.

La inducción electromagnética es el fundamento de los generadores de corriente eléctrica, como son la dinamo y el alternador.

PARTE II: EFECTO MOTOR Y EFECTO GENERADOR

EFECTO MOTOR: Hasta ahora vimos ejemplos con circuitos cerrados pero sin que circule una corriente por ellos, simplemente el fenómeno aparece cuando movíamos el iman o la bobina respecto uno del otro.

Ahora estudiaremos cuando ademas del movimiento relativo, también circula una corriente por esa bobina. Para ello observemos la imagen de abajo, donde se coloca una alambre conectado a una batería dentro de un campo magnético de un imán.

Efecto Motor

Un alambre se coloca horizontalmente a través de un campo magnético. Al fluir los electrones hacia la derecha de la mano, el alambre recibe la acción de una fuerza hacia arriba.

La fem (voltaje) de la batería y la resistencia del circuito son adecuados para que la corriente valga unos pocos amperios. Al llevar cabo este experimento, se encuentra:

Se observa que:

a.   Cuando el alambre tiene corriente y se coloca a través del campo magnético, el alambre recibe la acción de una fuerza. (si hay fuerza hay un movimiento)

b.   Cuando el alambre con corriente se coloca bastante lejos del imán no experimenta ninguna fuerza.

c.   Cuando el alambre no lleva corriente y se coloca a través del campo magnético, no experimenta ninguna fuerza.

d.   Cuando el alambre no lleva corriente y se coloca bastante lejos del imán, no experimenta  ninguna  fuerza.

e.   Cuando el alambre con corriente se coloca paralelo al campo magnético, no experimenta ninguna fuerza.

De estas observaciones se puede deducir:
(1) que debe tener corriente y
(2) que su dirección debe cruzar el campo magnético, para que el alambre reciba la acción de una fuerza.

f.   Cuando el alambre conduce electrones que se alejan  del observador,  recibe la  acción de una fuerza vertical.

g.   Cuando el alambre conduce electrones hacia el observador, recibe la acción de una fuerza vertical opuesta a la del caso (f ).

De esto se puede concluir que el sentido de la fuerza sobre el alambre forma ángulos rectos con el sentido de la corriente y con el del campo magnético. Se deduce, que el sentido de la corriente influye sobre el sentido de la fuerza, h.   Si  se invierten los polos magnéticos, también se invierta el sentido de la fuerza que actúa sobre el alambre.

De esta observación puede verse que el sentido del campo magnético, influye sobre el sentido de la fuerza. i.   Si se varía la intensidad de la corriente en el alambre, la magnitud de la fuerza resultante varía en la misma proporción.
Esto indica que la fuerza que recibe el alambre depende directamente de la intensidad de la corriente. j.

Si se substituye el imán por uno más débil o más  potente,   la  magnitud  de  la  fuerza resultante varía en la misma proporción. Por tanto, la fuerza sobre el alambre es directamente proporcional a la densidad de flujo del campo magnético. Debido a que los principios fundamentales de este experimento son básicos para el trabajo de motores eléctricos, la existencia de una fuerza que  actúa  sobre  una  corriente  que  cruza  un campo magnético, se llama efecto motor

El efecto motor no debe ser ni sorprendente ni misterioso. Después de todo, una corriente eléctrica es un flujo de electrones que experimentan una fuerza deflectora cuando atraviesan un campo magnético. Puesto que no pueden escapar del alambre, lo arrastran con ellos.

regla de los 3 dedos de la mano izquierda

La regla de los tres dedos también se aplica a la desviación de un alambre con corriente a través de un campo magnético. Use la mano izquierda, con el mayor apunte en el sentido del flujo electrónico, de negativo a positivo.

EFECTO GENERADOR:

Efecto Generador

El alambre se empuja alejándolo del lector. Cuando esto se hace en condiciones apropiadas, los electrones libres del alambre son imrjulsados hacia arriba.

De nuevo se tiene un campo magnético debido a un potente imán permanente . Sin embargo, esta vez se mantiene el alambre vertical y lo mueve acercándolo y alejándolo, hacia adelante y atrás, atravesando el campo. El alambre en movimiento se conecta con un medidor eléctrico sensible —un galvanómetro— que indica la existencia de una corriente eléctrica débil y, por tanto, de una fuerza electromotriz o voltaje (fem) que produce dicha corriente. En este experimento el estudiante observará y deducirá lo siguiente:

a.   Cuando el alambre se mueve a través del campo magnético se produce una fem.
b.   Cuando el alambre se mueve en una región lejos del imán, no hay fem.
c.   Cuando el alambre se mueve paralelo al campo magnético, no hay fem.
d.   Cuando el alambre se mantiene fijo, en una posición lejos del imán, no hay fem.
e.   Cuando el alambre se mantiene fijo en una posición, dentro del campo magnético, no hay fem.
De estas observaciones se puede concluir que el alambre debe moverse a través del campo magnético para que se genere una fem. Es evidente, que la parte superior del alambre, es positiva o negativa con respecto a la parte inferior. De esto se puede deducir que la fem generada forma ángulos rectos con el movimiento y también con el campo magnético.
f.    Cuando el alambre se mueve a través del campo, alejándose del observador, se produce una fem.
g.  Cuando el alambre se mueve a través del campo acercándose al observador, se produce una fem cuya polaridad es opuesta a la del inciso anterior (f).
De estos hechos se puede ver que el sentido del movimiento  determina el  sentido  de la fem generada.
h. Si se invierten los polos magnéticos el sentido
de la fem generada se invierte. Esto indica que el sentido de la fem generada está determinado por el sentido del campo magnético.
i.   Si se varía la velocidad de movimiento del alambre, la magnitud de la fem generada varía también de acuerdo con ella. Este dato indica que la fem generada es directamente dependiente de la velocidad del alambre en movimiento.
j. Si se colocan imanes más débiles o más potentes, la magnitud de la fem generada disminuye o aumenta proporcionalmente. Por tanto, la fem generada es directamente dependiente de la densidad de flujo del campo magnético.

Si se realizan estos experimentos, puede ser difícil ver el movimiento de la aguja del galvanómetro, porque la fem es muy pequeña. Sin embargo, se puede fácilmente repetir un experimento de la imagen. Se enrolla una bobina de alambre con varias vueltas, se conectan sus extremos al galvanómetro y se mueve dicha bobina rápidamente hacia el polo N de una barra imantada.

El gavanómetro se desviará, demostrando que se ha producido una fem en la bobina. La fem cambia de sentido cuando se aleja la bobina del imán o cuando se usa el polo S en lugar del polo N.

En este caso el alambre en la bobina que se mueve en un campo magnético se desplaza, principalmente, de modo perpendicular al campo. De acuerdo con esto, debe generarse una fem. Se puede preferir pensar en la bobina de este modo: a través del área de la bobina pasa una cierta cantidad de flujo magnético, al mover la bobina hacia el imán, la cantidad de flujo a través de ella aumenta. Siempre que cambia el flujo por una bobina, se genera una fem.

Debido a que los principios en que se basan estos experimentos también son básicos para el funcionamiento de los generadores eléctricos, constituyen el llamado efecto generador: una fem se genera en un conductor, cuando éste se mueve a través de un campo magnético o cuando el campo magnético varía dentro de una bobina.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología
Enciclopedia Temática CONSULTORA Tomo 10 Física
FISICA Fundamentos y Fronetras Stollberg – Hill

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA
TEORÍA GENERAL DE LA RELATIVIDAD FORMULADA POR ALBERT EINSTEIN

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando “revoleamos” una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o “empujados” contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue “la idea más feliz de mi vida“, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: “La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad”.

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS BÁSICOS DE LA TEORÍA TÓMICA: ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos. La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro. Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos. Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos). Hay “macromoléculas” formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico. Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles. Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción. Preparó un “código” en base a símbolos gráficos que utilizaba para representar la fórmula o “receta” por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.). Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.  Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O. Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados. De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos. El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada “conservación de la masa” y la otra la “ley de las proporciones definidas” que dicen:

1-Ley de la Conservación de la Masa: “En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)”.

2-Ley de las Proporciones Definidas: “Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas”.

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la “receta química” o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su “peso atómico” es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su “receta” o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante “ley”: “Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas”.

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
Agua H2O 18
Hidrógeno H2 2,0
Cloruro de hidrógeno ClH 36,5
Oxígeno O2 32,0
Ozono O3 48,0
Dióxido de azufre SO2 64
Trióxido de azufre SO3 80
Ácido sulfúrico S04H2 98
Amoníaco NH3 17
Pentóxido de fósforo P2O5 142
Trióxido de fósforo P2O3 110
Dióxido de carbono CO2 44
Trióxido de aluminio Al2O3 102
Óxido de calcio CaO 56
Carbonato de calcio C03Ca 100
Óxido cúprico OCu 80
Óxido ferroso OFe 72
Óxido férrico 03Fe2 160
Óxido mercúrico OHg 216
Hidróxido de potasit) KOH 56
Hidróxido de sodio NaOH 40
Clorato de potasio Cl03K 123
Cloruro de sodio CINa 58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada