Concepto: Nanociencia

El Conocimiento Científico La Fisica y el Estudio de la Naturaleza

El Conocimiento Científico
La Física y el Estudio de la Naturaleza

Ciencia es un término que en su sentido más amplio se emplea para referirse al conocimiento sistematizado en cualquier campo, pero que suele aplicarse sobre todo a la organización de la experiencia sensorial objetivamente verificable a traves de la estricta observación. Para ello se recurre al llamado método científico que estipula y organiza los pasos para experimentar sobre un fenómeno natural y desarrollar una teoría rigurosa de su esencia.

Para la Ciencia, la naturaleza se manifiesta siguiendo determinadas pautas que revelan una estructura de relaciones entre sus partes. Estas pautas o leyes, que el científico intenta descubrir, no son modificables por la voluntad humana pero su conocimiento puede servir para eliminar, alterar o producir determinados acontecimientos. Podríamos decir que la sospecha de la existencia de una legalidad inherente al Universo es un “mito”o creencia que hace posible la Ciencia.

La Ciencia actual no debe considerarse como un saber completo, acabado y absoluto. Muy por el contrario, los enigmas y misterios que enfrenta son múltiples e inacabables. Creer que la Ciencia puede brindar una respuesta definitiva para todo también es superstición.

Podemos decir que el conocimiento científico es por su misma esencia dinámico y cambiante: cada nuevo avance genera una multiplicidad de inéditos interrogantes y posibilidades de investigación, haciendo que en la práctica el proceso resulte de duración indefinida.

HISTORIA: Los antiguos solucionaron problemas de física, pero sin extraer conclusiones, sin establecer leyes. Y así fue por miles de años. Luego, entre los siglos VII y VIII a. de C., apareció la ciencia que por primera vez estudió los fenómenos de la naturaleza; y entonces nació la física. El coloso de la física antigua fue Arquímedes (287-212 o. de J. C). Después de él prácticamente hubo un vacío. Su sistema de estudio y de investigación, que podemos llamar experimental, se perdió, y durante siglos, la física no fue sino un conjunto, un poco caótico, de distintas observaciones.

En la segunda mitad del siglo XV, Leonardo Da Vinci comenzó a estudiar los fenómenos reproduciendolos artificialmente , a fin de intentar establecer leyes fisicas estrictas.

Finalmente a mediados del siglo XVI nació el hombre que fundó, virtualemente, la física moderna , Galileo Galilei demolió practicamente toda la teoría aristotélica que había dominado el saber durante toda la Edad Media. Creó de esta manera a través de la experimentación y observación, las técnicas de la ciencia actual, que permite obtener resultados precisos y formulados de los fenòmenos naturales estudiados en el laboratorio.

La obra de Galileo fue continuada por Torricelli (1608-1647). En el mismo año de la muerte de Galileo , nacia en Inglaterra que habría de ser una figura cumbre en la historia de la ciencia, Isaac Newton. Estableció entre otras, la famosa Ley de Gravitación Universal, que explica como se mueve los cuerpos celestes en el universo.

Los estudios sobre mecánica, astrofísica, óptica y matemática fueron muy profundo, creando el calculo superior, una nueva matematica que le sirvió como herramienta fundamental para describir cuantitativamente el estudio de sus observaciones y teorías. Murió en 1727, siglo XVIII, siglo considerado como el siglo de las ciencias, ya que en él, se estudiaron los fenómenos eléctricos, magnéticos y caloríficos, llegando a correcto resultados para interpretar la naturaleza y poder avanzar en el estudio de nuevoa fenómenos.

Fue durante el siglo XIX, naturalmente, donde la física se desarrolló en todo sentido, cumpliendo señalados progresos en sus distintas ramas. Se difundió, también, la física aplicada especialmente a las máquinas, a los motores de vapor, de explosión y eléctricos. El siglo XIX es el siglo de la óptica (fotografío, cinematografía, etc.) y de la electricidad (motor eléctrico). Y puso los fundamentos dé la electrónica.

Del siglo XIX se ha pasado, sin altibajos, a nuestro siglo, en que, desde el punto de vista científico se están repitiendo los “milagros” de Galileo y de Newton. En los primeros cincuenta años del siglo XX, el “hombre más importante de la física fue Alberto Einstein, el sabio investigador alemán, que con sus profundísimos estudios sobre la luz, el tiempo, el espacio y la energía, ha hecho avanzar considerablemente los conocimientos de la humanidad, y ha descubierto muchas leyes que regulan la naturaleza y el universo.

http://historiaybiografias.com/archivos_varios5/ciencia0.jpg

ESTE relato pertenece a un escritor del siglo pasado. Una vez, en casa de un agricultor acomodado, el hijo mayor regresó de la escuela con un cero en el cuaderno. —¡Cero! —exclamó el padre furioso— ¿Y se puede saber por qué has sacado un cero en las clasificaciones de este bimestre?.

—Porque no he sabido explicar al profesor qué es la física —balbuceó el muchacho entristecido.

—¡Ah! ¿sí? Sin embargo, es una cosa bastante sencilla. Mira: esta vara está quieta, apoyada en la pared. Ahora yo la tomo y esto es física, porque una ley física dice que un cuerpo permanece inmóvil hasta que intervenga una fuerza que lo mueva. Si la suelto caerá al piso en caída libre con una velocidad cada vez mayor. Si la rozo en tu espalda  la vara se dobla, y este es un fenómeno físico. Tú sientes un escozor es debido a la fricción, y la fricción pertenece a la física. Aprende, hijo mío, la física no es difícil, porque tiene relación con casi todas las acciones que forman parte de nuestra vida. . .

fenómeno físico

fenomeno quimico

El objetivo de la Ciencia es, por una parte, una comprensión, lo más completa posible, de la conexión entre las experiencias de los sentidos en su totalidad y, por otra, la obtención de dicho objetivo usando un número mínimo de conceptos y relaciones primarios.” Albert Einstein.

La Ciencia intenta comprender el Universo,  esto significa que pretende ordenar conceptualmente el aparente caos de los hechos naturales, para descubrir el orden subyacente en los fenómenos de la realidad. Por eso todas las Ciencias naturales (Física, Química, Biología, Geología, Meteorología) parten de la observación de la naturaleza.

Y permiten extraer los datos necesarios para la enunciación de explicaciones tentativas. Pero esta observación no es imparcial, porque siempre aparece condicionada por el conjunto de ideas adquiridas previamente y que orientan nuestra actitud. La observación por sí sola no es garantía de explicación científica, pues sin un ordenamiento metodológico no permite arribar a conclusiones fehacientes a partir de los fenómenos estudiados.

Observar implica recortar la realidad arbitrariamente, elegir determinados hechos y desechar otros de la multiplicidad de fenómenos que propone la naturaleza.

No todos los observadores de un mismo hecho “verán” y registrarán lo mismo, porque cada uno lo hace con una intención y desde un punto de vista diferente, que modula sus respectivas percepciones. Con Galileo Galilei comenzó a planificarse el estudio de fenómenos, es decir, la experimentación metódica. Todas las Ciencias naturales recurren a ella en mayor o menor medida.

La experimentación consiste en la producción deliberada de un hecho, el cual puede ser repetido siempre que se den las mismas condiciones. Por supuesto, la repetibilidad de un hecho es relativa, ya que en un sentido muy estricto, cada hecho es único e individual. Por eso el científico, al preparar el experimento, debe cuidar de mantener invariables las condiciones de producibilidad del fenómeno en estudio, con el fin de poder investigar las características que él considera relevantes.

Un aspecto fundamental de la experimentación en Ciencias Naturales es su carácter cuantitativo. Los datos que se obtienen provienen del registro de los resultados emergentes de la observación experimental. La Ciencia se expresa a través de los conceptos y relaciones de la Matemática. El lenguaje matemático es claro, no presenta ambigüedades y permite una comunicación eficaz.

La Ciencia se expresa a través de los conceptos y relaciones de la Matemática.
El lenguaje matemático es claro, no presenta ambigüedades y permite una comunicación eficaz.

EL ESTUDIO DE LA NATURALEZA
Volviendo al ejemplo del enérgico e inteligente padre tenía realmente razón: la física “está” por doquier, alrededor nuestro. Un gran número de acciones, hechos y fenómenos que tienen lugar en el mundo, pertenecen a la física. Cuando permanecemos quietos es un fenómeno físico; lo mismo cuando nos movemos, nos paramos, saltamos, estrechamos las manos, miramos alrededor, damos vuelta una manija, llevamos una valija, esci’ibimos, nos sentamos, hablamos, etc., etc. Así podríamos seguir empleando centenares y miles de términos. La “terrible” física ¿no es, en realidad, nuestra propia vida?.

Los antiguos griegos llamaron física (de “phisis”, naturaleza) al estudio o ciencia de la naturaleza. Pero con el progreso del conocimiento humano, esta ciencia se ha extendido en tal forma que ha sido necesario dividirla en varias ramas: zoología, botánica, química, mineralogía, geografía, geología, etc. Él nombre de física ha sido destinado, así, para señalar exclusivamente la ciencia que estudia los fenómenos en los cuales la materia, las sustancias, no son transformadas. Esta definición sirve para distinguir los fenómenos físicos de los químicos.

En el fenómeno físico, como dijimos, las sustancias no son cambiadas, no son transformadas. Son fenómenos físicos, por ejemplo, la caída de an cuerpo, la ebullición de un líquido, el reflejo de un rayo luminoso sobre un espejo, etc.

En el fenómeno químico las sustancias Son transformadas en otras sustancias. Por ejemplo, son fenómenos químicos: la combustión (en la cual el carbón —supongamos— es transformado en anhídrido carbónico) ; la descomposición del agua en hidrógeno y oxígeno, etc.

Conviene aclarar que esta división no es rigurosa, porque hay fenómenos —especialmente en la física nuclear— en los cuales la materia, la sustancia, es igualmente transformada de modo que son a la vez físicos y químicos. La división indicada tiene, pues, sólo un valor indicativo, de orientación, y de ningún modo, de separación total.

FENÓMENOS, LEYES Y PRINCIPIOS:

Aquí, antes de proseguir nuestra incursión en el mundo de la física, es necesario comprender el significado de tres palabras que se encuentran a menudo: fenómeno, ley y principio.

Para la física, el término fenómeno no tiene el mismo significado que en el lenguaje común, es decir, algo extraordinario, inexplicable, fuera de lo habitual. Al contrario: en física, fenómeno es cualquier hecho que sucede en la naturaleza. Son fenómenos: la caída de una piedra, el vuelo de un pájaro, etc. De modo que los hechos más comunes y normales, para la física son fenómenos.

fenomeno plano inclinado

Fenómeno natural, caída de un cuerpo sobre un plano inclinado, estudiado por Galileo

http://historiaybiografias.com/archivos_varios5/ciencia4.jpg

Caída libre de un cuerpo, otro tipo de fenómeno natural, también estudiado por Galileo

http://historiaybiografias.com/archivos_varios5/ciencia5.jpg

Principio de Arquímedes, empuje sobre un cuerpo sumergido en un fluído, Arquímedes logró entender este fenòmeno natural

Las leyes, dicho en palabras simples, son las reglas generales según las cuales suceden siempre los fenómenos. Si yo tengo una piedra en una mano y abro esta, la piedra cae siempre hacia abajo, exactamente de acuerdo con la ley de la gravedad. Si yo repitiera la acción mil veces, tendría siempre el mismo resultado, porque la causa que produce el fenómeno es siempre la misma y no puede variar: la atracción terrestre.

Naturalmente, las leyes existen aunque nadie las defina. A veces, determinadas leyes son enunciadas, formuladas con un principio. Cuando se enuncia el famoso principio de Arquímedes: un cuerpo sumergido en un líquido recibe de abajo un empuje hacia arriba igual al peso del líquido desplazado, se enuncia en forma científica una ley, una regla general, a la cual todos los cuerpos sumergidos en un líquido obedecen. Así es, y así sucederá siempre.

http://historiaybiografias.com/archivos_varios5/ciencia6.jpg

Caída en el vacío de un cuerpo pesado y una plema, ambos caen en el mismo tiempo.

FÍSICA CLÁSICA Y FÍSICA NUCLEAR

Hasta fines del siglo pasado, aproximadamente, la física era aún la tradicional, la clásica, la que se enseñaba en las escuelas desde tres siglos antes, por lo menos. La física que se refería a objetos y fenómenos de cierta magnitud, visibles y observables directamente, sin la ayuda de ningún instrumento. Ejemplo: el movimiento de una bola que desciende por un plano inclinado bajo la acción de la fuerza de la gravedad, es un fenómeno de la física clásica.

Pero ya a fines del siglo pasado apareció en escena una “cosa” de una pequenez increíble, pero que se volvió sumamente importante: el átomo, tan diminuto en sí y dotado de tanta potencia.

Como sabemos, el átomo es invisible, lo mismo que la molécula. Así nació la física que se ocupa de los fenómenos moleculares, atómicos y nucleares, que no siguen las leyes de la física clásica, sino que se comportan obedeciendo otras leyes, generalmente más complicadas. Esta es la física nuclear, que se está convirtiendo en una de las ciencias más importantes para la humanidad.

Por ejemplo: la escisión de un átomo de uranio, fenó¿neno absolutamente invisible a simple vista, es un fenómeno de la física nuclear.

EL MÉTODO EXPERIMENTAL
Los antiguos, y en primer término el gran Aristóteles, pensaban que cuanto más pesado es un cuerpo, más velozmente cae. Una bola que pesa treinta kilos —decían— caerá a una velocidad tres veces mayor que una que pesa diez. Durante siglos nadie osó contradecir esta ley porque la había formulado el consagrado sabio Aristóteles.

Pero Galileo no fue de este parecer. Era un joven profesor en Pisa cuando anunció que, según sus observaciones, Aristóteles estaba muy equivocado. El anuncio produjo gran escándalo. Los hombres de ciencia se preguntaron quién sería ese jovenzuelo presuntuoso que deseaba derribar las bases de la ciencia. Pero Galileo demostró, en forma sencillísima, que los seguidores de las antiguas doctrinas se hallaban en un error. Parecía que la famosa torre inclinada de Pisa hubiera sido puesta allí precisamente para facilitar los experimentos del joven profesor.

Un día, seguido de un séquito de docentes y discípulos, Galileo subió a la torre, rogó a loa curiosos que dejaran libre el espacio necesario, y dejó caer simultáneamente dos bolas: una de una libra de peso y otra de diez. Ambas tocaron el suelo simultáneamente, quedando demostrado de una vez para siempre que los cuerpos de dis tinto peso caen con igual velocidad (si se hiciera la objeción que, al tirar una pluma y una pesa de hierro, la primera cae mucho más lentamente, se lia do advertir que ello es debido a la resistencia del aire, pues en el vacío ambas caerían juntas).

Aquellos hombres volvieron a sus casas avergonzados, y el genial Galileo señaló el nuevo camino que la ciencia, desde entonces, habría de recorrer siempre: el método experimental. Es decir, que la verdadera investigación científica no debe basarse solamente en el razonamiento, sino también en el experimento. Los fenómenos físicos deben ser experimentados concretamente, en forma de poder extraer de ellos conclusiones —o sea, leyes y principios— seguras y probadas reiteradamente.

Ver: Pasos del Método Científico

DIVISIÓN DE LA FÍSICA CLÁSICA
Por razones prácticas, la física clásica se divide en cinco grandes partes:

1) Mecánica (del griego “mekhane”, máquina) que estudia el movimiento de los cuerpos.

2) Termología (del griego “thermos”, calor, y “logos”, estudio) que estudia el calor.

3) Acústica (del griego “akoustieos”, que se refiere a oír, escuchar) que estudia el sonido.

4) Óptica (del griego “ópticos”, derivado de “ops”, vista) que estudia la luz y los fenómenos luminosos.

5) Electrologia (del griego ”elektron”, ámbar, que se electriza por frotamiento) que estudia los fenómenos eléctricos y magnéticos.

A estas cinco partes deben agregarse la geofísica y la astrofísica.

LA FÍSICA APLICADA
Supongamos que un ingeniero —o un grupo de ingenieros— debe proyectar un motor de automóvil. Efectuarán centenares de cálculos, diagramas, proyectos y bosquejos. Queremos ver uno? He aquí: “Cálculo del coeficiente de dilatación“; es decir, en palabras simples, en la proyección del motor habrá que tener en cuenta la dilatación que las distintas partes metálicas sufrirán por la acción del calor. Y la dilatación, naturalmente, es un problema que atañe a la física, y más precisamente, a la termología.

Este es un ejemplo; pero podrían citarse miles y miles: todos los casos en que la física es aplicada a problemas técnicos y científicos: la proyección de un motor, de una máquina cualquiera, de un lente, de un aparato óptico, de un vehículo, de un avión, de un dique, y otras creaciones de la técnica.

En la actualidad, el físico trabaja en la planta fabril, en el astillero, en el laboratorio, etc. Es uno de los tantos hombres que contribuyen al progreso de la ciencia.

LA GEOFÍSICA: Pensemos durante unos instantes en una tormenta. ¿Qué es? Se dirá: es un fenómeno atmosférico en el que hay viento, lluvia, descargas eléctricas, etc. Exacto, Pero si tuviéramos que responder qué tipo de fenómeno es, según la física, nos veríamos en un aprieto. ¿Es un fenómeno de la mecánica?; ¿de la termología?; ¿de la electricidad?.

La respuesta es: la tormenta es un conjunto de fenómenos de todos estos tipos. Y más que nada, corresponde a la Tierra. La ciencia que estudia los diferentes fenómenos terrestres desde el punto de vista de la física se llama geofísica (del griego “geo”, tierra). Esta se divide en distintas ramas: sismología (estudio de los terremotos) ; geodesia (estudio de la forma de la Tierra) ; meteorología (estudio de la atmósfera terrestre y sus fenómenos) ; etc.

LA ASTROFÍSICA: Sabemos, por ejemplo, que la “atmósfera” de Saturno, la de Urano, o la de Plutón, es decir, la de planetas distantes miles de millones de kilómetros, está compuesta de diversos gases, como hidrógeno, metano, amoníaco, etc. ¿Cómo ha sido posible establecer esto, a tal distancia? Haciendo pasar la luz que reflejan estos planetas ñor prismas de vidrio, que la descomponen en los diversos colores que la forman (espaetro).

Se sabe que cada cuerpo luminoso o incandescente produce ua espectro característico. Produciendo el espectro délas radiaciones luminosas que se reciben de los cuerpos celestes más lejanos, es posible establecer de qué elementos están compuestos. Esta tarea pertenece a la astrofísica, la ciencia que estudia los aspectos de la astronomía estelar según las leyes de la física.

De la Física Aplicada a la Ingeniería

Fuente Consultada:
FISICA II Dinámica, Fluídos, Física Cuántica, Astronomía – Aristegui-Baredes-Fernández-Silva-Sobico Editorial Santillana
Enciclopedia Estudiantil Fasc. Nº72 Editorial CODEX

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

El Atomo Para Niños y Principiantes Explicación Sencilla

PARA NIÑOS: PARTÍCULAS Y ESTRUCTURA DEL ÁTOMO

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales, cuando vamos de paseo vemos correr el agua de un río, las piedras de grandes montañas, la tierra en los caminos, y seguramente vamos viajando sobre un automóvil que está construído con diversos y distintos materiales como: acero, plástico, tela, cuero, goma, etc. Pero bien,…esos materiales ¿de que están hechos?,….esa pregunta también se la hicieron hace unos 2500 años en Grecia Antigua, grandes hombres dedicados a la ciencia , como Thales de Mileto, Empédocles y Demócrito, todos ellos vivieron entre 600 y 400 antes de Cristo y aquí te los presento:

thales, empédocles y demócrito

Cada uno de ellos, y también otros pensadores mas, tenían su propia teoría o forma de explicar los elementos que constituían la materia, por ejemplo para Thales era el Agua, para Empédocles era no solo el Agua, sino también la Tierra, el Fuego y el Aire, es decir los cuatro elementos fundamentales.

Pero un día llegó el señor Demócrito de una ciudad griega llamada Abdera, y afirmó que para saber la composición de la materia, deberíamos ir cortándola por mitad sucesivamente. Imagina una hoja de papel que la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso?.

Según su idea, de dividir constantemente un cuerpo de cualquier material, obtendríamos un trozo cada vez mas pequeño, hasta obtener una porción mínima que seria imposible volver a cortarla es decir, esa porción seria INDIVISIBLE.  A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo.

Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto que tanto amaban los griegos en sus fogosas discusiones.

atomo democrito

Imagina que deseas conocer como está formada la manzana, para ello (según Demócrito) debes cortar indefinidamente la misma hasta llegar a una mínima porción “atómica”, y ese es el elemento fundamental con la que está consituída la fruta.

El mundo material, el mundo que nuestros sentidos conocen está formado por gases, como el oxígeno de aire que respiramos en este momento o el hidrógeno, de líquidos, como el agua o el alcohol, de sólidos, como el hierro o el azúcar, o de las hojas, flores y frutos de un árbol, todos no son más que diferentes agrupaciones de un número inmenso de pequeñísimos de esos corpúsculos llamados átomos.

Los átomos son muy poco diferentes los unos de los otros, por ejemplo hay átomos del material HIERRO, átomos de OXIGENO, átomos de COBRE, átomos de CARBONO, etc. En la naturaleza hay 103 elementos conocidos, entre naturales y artificiales (porque los ha hecho el hombre en el laboratorio, hoy puede haber algunos más).

Despúes de muchos años de experimentos e investigaciones los físicos del siglo XX pudieron penetrar dentro de “esa porción indivisible”,  y observaron que además existían otras partículas aún más pequeñas que los átomos y que eran las partes constituyentes del mismo.

La forma de dibujar un átomo, es la siguiente:

esquema de un átomo

Los científicos notaron que el átomo tiene en su centro casi una “esferita” que en su interior contiene dos partículas llamada: PROTONES Y NEUTRONES.

Por otro lado también observaron que alrededor de ese núcleo, giraban a gran velocidad otras partículas más pequeñas que las del núcleo y las llamaron: ELECTRONES.

Las partículas ELECTRÓN Y PROTÓN, tienen una carga eléctrica, en el primero la carga es NEGATIVA y el segundo la carga eléctrica es POSITIVA. Los NEUTRONES no poseen carga y el nombre deriva de la palabra “neutro”.

El atómo está equilibrado eléctricamente, es decir por ejemplo, que si hay 10 electrones girando (10 cargas negativas), también ese átomo tiene 1o protones en su núcleo (10 cargas positivas)

En el esquema de abajo, vemos el átomo de HELIO, material con que están hechas las estrellas. Tiene dos protones y dos electrones. La cantidad de neutrones es variable, aqui también tiene dos.

composicion del atomo: protones, neutrones, electrones

¿Que es lo que hace que un material sea Hierro, otro Helio y otro por ejemplo Oro?…LA CANTIDAD DE PROTONES contenidos en el núcleo, cantidad que se denomina: NÚMERO ATÓMICO, en el caso del esquema: Na=2

A la suma de la cantidad de protones mas neutrones la llamamos: NUMERO MÁSICO, y en el caso que nos ocupa es: Nm=2+2=4.-

Esos mas de 100 elementos que forman la naturaleza, fueron agrupados en una tabla para ser estudiados y se la llama: Tabla Periódica de los Elementos Químicos o también Tabla de Mendeleiev

tabla de mendeliev

Ampliar Esta Tabla

Observa que cada elemento (químico) tiene una ubicación, y el orden es por el Número Atómico de cada elemento: primero es el HIDRÓGENO, con un protón, le sigue el HELIO con dos protones, luego el LITIO con tres protones, el BERILIO con cuatro protones, y asi hasta el último elemento N° 103 , llamado LAWRENCIO. Hay otros números en columna a la derecha, que luego veremos y nos muestra las capas y subcapas de los electrones. Los colores de los grupos es para diferenciar los tipos de elementos, entre alcalinos, lantánidos, no metales, metales ,etc. cada uno con sus propias características, como el brillo, conductividad electrica, etc.

estructura atomo de hidrógeno

LAS MEDIDAS DEL ÁTOMO:

Para los seres humanos es muy díficil imaginar distancias tan pequeñas, como es de la partículas atómicas, pero podemos decir que esas partículas, tienen un diámetro medio de unas diez millonésimas de milímetro, se necesitarían más de diez millones de ellas colocadas en línea recta para tener un milímetro de longitud.

1 mm.= 10.000.000 de partículas

El núcleo, que es parte predominante, es decir, la mas grande, de forma esférica, que posee un radio de unos  0,0000000000001 centímetros, UN UNO CON TRECE CEROS, como se puede ver es una medida sumamente chica para poder imaginarla. El diámetro de los electrones es aún mas pequeño.

Respecto al peso de esas partículas, no vamos a dar números, pero es un UNO CON VEINTIOCHO CEROS de gramo, y el peso del protón es 1836 veces el peso del eléctrón. A este concepto le llamamos MASA DE LA PARTÍCULA.

Dijimos que los electrones giran muy rapidamente alrededor del nucleo, en una trayectoria circular, y el radio de esa circuferencia es de UN UNO CON 11 CEROS de metro, 0,00000000001 m. Para las dimensiones del átomo esa medida es grande, porque esa medidas es 25.000 veces mas grande que el radio del núcleo.

Para llevarlo a una escala “mas humana”, piensa que si el nucleo tiene la medida de una moneda, el radio del electrón seria de unos 250 metros.

Presentamos un esquema aproximado de las dimensiones a modo de aclarar un poco mas la idea, pero como consejo solo trata solo de recordar que un átomo mide 10.000.000 veces que 1 metro.

ESQUEMA medidas del atomo

NIVELES DE ENERGIA DE LOS ELECTRONES

Debemos aclarar que esas partículas son tan pequeñas que no pueden observarse, y cuando enviamos un rayo de luz para intentar verla, esa partícula cambia de posición en el mismo instante, entonces es imposible hablar de la posición exacta en el espacio que rodea al núcleo. Como consecuencia nació a principio del siglo XX una nueva física, conocida como física cuántica, que recurre a la PROBABILIDAD  de encontrar o “ver” un electrón en la región que rodea al núcleo de un átomo.

A partir de ese concepto hablamos de la CERTEZA de que un electrón se encuentre girando en cierta área que rodea al núcleo. Existen varias áreas o regiones de giro, y cada una le corresponde lo que llamamos NIVEL DE ENERGIA, para cada nivel hay un NÚMERO MAXIMO de electrones que pueden girar. Hay una fórmula muy simple que permite determinar la cantidad de electrones por nivel de energía o CAPA, y es la siguiente: 2.n².

Observa como se calcula el número de electrones por cada nivel en el esquema de abajo, usando la fórmula anterior.

niveles de energia de los electrones

Y finalmente cada nivel tiene un subnivel o subcapa que también permite que en esa zona giren electrones, a cada subnivel se lo llama. s , p , d , f, y el máximo de electrones es de 2, 6, 10 y 14 respectivamente.

Puedes observar la tabla siguiente:

tabla de subniveles de energia atomica

Resumiendo lo antedicho, podemos concluír que:

Entonces para el nivel es el 1, sabemos que solo puede contener 2 electrones, por lo que el nivel 1 tiene una subcapa llamada s, que permite 2 electrones.

Para el nivel 2, la cantidad de electrones es de 8, por lo que tendrá dos capas, la s y la p, con 2 y 6 electrones, es decir 8 en total.

Para el nivel 3 , la cantidad de electrones es de 18, entoces tendra tres capas, s, p y d , con 2, 6 y 10  electrones y l suma es 18.

En la tabla siguiente lo podemos analizar mas fácil, para tres capas.

tabla de capas y subcapas de los atomo

Entonces veamos por ejemplo ahora el átomo de NIQUEL, que según la tabla de los elementos nos indica que tiene 28 protones, entonces el numero de electrones también será de 28, y estarán ubicados de la siguiente manera:

En el NIVEL 1, tendrá 2 en la subcapa s , + NIVEL 2 con 8 en dos cubcapas ( s, p)  + NIVEL 3 con 18 en tres subcapas (s,p,d), cuya suma es de 28 electrones.

AMPLIACIÓN SOBRE LA ENERGÍA NUCLEAR: Los átomos de un elemento tienen siempre el mismo número atómico, pero pueden poseer distinto número de masa, por contar con un número diferente de neutrones; tales átomos se denominan isótopos.

El edificio del átomo, centro de enormes fuerzas que se ejercen entre cargas opuestas, no presenta una estabilidad ilimitada. El núcleo puede desintegrarse y liberar energía atómica, más correctamente energía nuclear, pues el proceso tiene lugar directamente en el núcleo del átomo.

Los fenómenos que conducen a la liberación de tal energía son la fisión y la fusión de núcleos. La fisión, traducción fonética de la voz inglesa fission, significa escisión, división o partición de la masa de un núcleo pesado en dos fragmentos, que originan los núcleos de otros dos átomos más livianos y de pesos atómicos más o menos iguales, y la fusión, unión de dos núcleos de átomos livianos para formar el núcleo de uno más pesado.

En ambos casds, la liberación de cantidades extraordinarias de energía se debe a la transformación de cierta cantidad de masa de los núcleos de los átomos originales de energía. Esta se determina por medio de la fórmula:

E = m.c², establecida por Albert Einstein.

En ella, E es la energía liberada, m la masa transformada y c la velocidad de la luz. Gracias a dicha transformación, destrucción o aniquilamiento de la masa o materia se puede, de una pequeña cantidad de ella, obtener una cantidad enorme de energía. Así, de la fisión de 1 kilogramo de uranio puede obtenerse una cantidad de energía equivalente a la que produce la combustión de 2.500 toneladas de carbón.

Las aplicaciones de la energía nuclear son numerosas. La bomba atómica o bomba A y la bomba de hidrógeno o bomba H se pueden emplear para excavar grandes canales, demoler rocas, etc. Los reactores nucleares sirven para producir energía eléctrica, así como para propulsar buques. También se utilizan piara obtener isótopos artificiales que tienen aplicaciones en medicina, agricultura e industria.

Fuente Consultada:
CIENCIA JOVEN Diccionarios Enciclopedico Tomo V – El Átomo y su Energía-

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Orígenes de la Ciencia Moderna y La Filosofía Renacentista

Orígenes de la Ciencia Moderna: Filósofos y Científicos

Si la primera parte del siglo XVII es un período de crisis en todos los campos, crisis que prolongan las conmociones del Renacimiento, en la segunda mitad del siglo se proyectan las tentativas de solución.

A la anarquía, a las luchas políticas y sociales, responde el ideal absolutista, el cual alcanza la perfección histórica con Luis XIV, que inspira tanto a los soberanos españoles como a los Estuardo, al emperador como a los pequeños príncipes alemanes.

Al caos y la confusión, nacidos de las ruinas del viejo sistema aristotélico como consecuencia de los trabajos y las investigaciones de Bacon y Galileo, se opone la tentativa de Descartes, buscando un nuevo método científico para elaborar una doctrina racional de conjunto del universo.

El ser humano siempre quiso saber qué ocurrió al principio de todo y, en consecuencia, no tuvo reparo en intentar ver más allá para encontrar la luz. Fue el italiano Galileo Galilei (1564-1642) quien preparó el camino de la ciencia moderna y supo convertir el catalejo del holandés Hans Lippershey (1570-1619) en un telescopio refractor para la observación de los cuerpos celestes en 1609, justo el mismo año en que el astrónomo alemán Johannes Kepler (1571-1630) presentaba sus primeras dos leyes del movimiento elíptico planetario en el libro Astronomía nova.

El físico y matemático inglés Isaac Newton (1642-1727), inventor del primer telescopio de reflexión en 1668, sentó las bases de la ciencia moderna con sus descubrimientos en óptica clásica (la naturaleza de la luz blanca o luz del Sol por medio de un prisma de cristal) y la mecánica clásica (la formulación de las tres leyes del movimiento y la ley de la gravitación universal). Además desarrolló el cálculo infinitesimal en el campo de la matemática pura.

Ya en la segunda década del siglo XX, el físico alemán Albert Einstein revolucionó el sistema del mundo newtoniano con la teoría general de la relatividad y dos predicciones fundamentales: la curvatura del espacio-tiempo alrededor de un cuerpo y el llamado efecto de arrastre de marco, por el que la Tierra, en su rotación, curva el espacio-tiempo. Poco después, el universo fue visto como un todo en expansión gracias a la teoría del Big Bang o Gran Explosión, que se ha establecido como la teoría cosmológica más aceptada.

En filosofía Descartes se lo considera como fundador de la filosofía moderna, quien tendrá una gran influencia después de su muerte (1650). A la copiosidad barroca del arte durante este período de transición, el clasicismo quiere imponer las reglas universales del buen gusto y de la mesura.

En todos los aspectos, tanto en el orden económico, con el mercantilismo estatal, como en el orden militar, en el que los ejércitos disciplinados por la monarquía absoluta quieren reemplazar a las bandas de mercenarios y a los condottieros, todavía dominantes en el trascurso de la Guerra de los Treinta Años, se pueden discernir los esfuerzos hacia el orden y la estabilización.

El triunfo no será más que aparente: detrás de las armoniosas fachadas clásicas y las magnificencias del arte oficial, aparecen, desde finales del siglo, otras crisis, otras con tradicciones que anuncian el período revolucionario de la «Ilustración».

DESCARTES Y EL FUNDAMENTO DEL RACIONALISMO
Renato (René) Descartes (1596-1650) pertenecía a la pequeña nobleza; después de haber cursado sólidos estudios eligió la carrera de oficial del ejército, sirviendo primeramente en Holanda, bajo las órdenes de Mauricio de Orange, y en Baviera, al comienzo de la Guerra de los Treinta Años.

No cesaba de meditar y trabajar en las matemáticas; en Alemania, en un cuchitril al lado de una estufa, tuvo la célebre «iluminación» que le reveló las ideas directrices de su filosofía. Después de una permanencia en Italia, se estableció en Holanda (1629), donde el pensamiento   podía   desenvolverse   más   libremente. Residió allí veinte años, interrumpidos por breves estancias en Francia, enteramente   consagrados   a   la   ciencia   y   a   la filosofía.

Filósofo René Descartes

 En el año 1637 apareció el «Discurso del Método», escrito en francés y no en latín como era costumbre en la época para este género de obras. Rápidamente célebre, admirado por la princesa Isabel, hija del Elector Palatino, fue invitado a Estocolmo por la reina Cristina, la cual le exigía que se levantara todos los días a las cinco de la mañana para enseñarle filosofía.  ¡Su actividad de reina no le debaja libre otros momentos! El duro clima sueco fue la causa de la pulmonía que llevó a la tumba a Descartes   a  los  cincuenta  y  cuatro  años.

Trató de sistematizar todos los conocimientos de su tiempo, de crear una ciencia universal explicando los fenómenos de la naturaleza por medio del razonamiento matemático. Sabio en todo, hizo investigaciones de óptica, creó la geometría analítica, se interesó por la fisiología.

Su método comenzó por la duda radical, la «tabla rasa» de las ideas recibidas, la repulsa del principio de autoridad, para comenzar a partir de la primera certeza resumida en la célebre fórmula: «Pienso, luego existo». Se ajusta a cuatro reglas esenciales:

1)no aceptar nunca, más que ideas claras y distintas, que la razón tenga por verdaderas;

2)dividir las dificultades en tantas partes como sean necesarias para resolverlas (análisis);

3)partir de lo simple para, llegar a lo complejo (síntesis);

4)examinar todo por completo para estar seguro de no omitir nada.

No es cuestión de examinar aquí al detalle una obra que aborda los problemas universales de las ciencias y de la filosofía. A pesar de que Descartes intentó demostrar que las ideas de perfección y de infinito no pudieron ser puestas en el hombre, imperfecto y limitado, más que por Dios, sus explicaciones rigurosamente deterministas del universo, del hombre y de sus pasiones, podían excluir la divinidad y por ello rápidamente se hizo sospechoso (a pesar del entusiasmo de Bossuet) a los ojos de ciertos teólogos.

Y es verdad que inspiró directamente a los materialistas del siglo siguiente. Pascal lo vio muy claro cuando escribió en sus «Pensamientos»: «No puedo perdonar a Descartes; hubiera querido poder prescindir de Dios en toda su filosofía; pero no pudo evitar hacerle dar un papirotazo, para poner al mundo en movimiento. Después de esto, Dios no sirve para nada».

Los contemporáneos se apasionaron por sus teorías sobre el pensamiento y la extensión, los torbellinos, la materia sutil, los animales-máquinas, etc… Por su tentativa de reconstrucción total de las leyes del universo, basándose en algunos principios, se ligaba al espíritu de ordenación del absolutismo. Por su método, principalmente la duda sistemática, abría el camino al pensamiento libre, aunque se defendía siempre de ser ateo. El cartesianismo iba a tener importantes derivaciones.

SPINOZA Y LEIBNIZ Entre los espíritus cultivados se mantenía numeroso contacos , por medio de los libros, viajes y las correspondencias. La lengua  francesa  se extendía  y  sustituía  al latín como lengua erudita, y las Provincias Unidas  eran  un punto  de  confluencia  de ideas.

Los grandes centros intelectuales se desplazaban:  primero fue Italia,  hasta comienzos del siglo xvn, después Francia, y, al final del siglo, los Países Bajos e Inglaterra, donde Newton y Locke iban a coronar los  progresos científicos  y filosóficos.

Las ciudades holandesas que habían albergado a Descartes, con sus universidades, sus imprentas, su burguesía mercantil activa y cosmopolita, y su liberalismo, eran favorables a la floración de las nuevas ideas. En Amsterdam   nació   Spinoza (1632-1677), descendiente de judíos portugueses emigrados. La audacia y la originalidad de su pensamiento, influido por Descartes, le indispuso con  su  ambiente  tradicional (su padre quería hacerle rabino), siendo arrojado de la sinagoga.

Excluido del judaísmo, quedó desde entonces libre e independiente, rechazando las cátedras de la universidad, porque temía verse obligado a abdicar de su independencia; prefería ganarse la vida en La Haya puliendo lentes. En este caso tampoco podemos dar más que una breve reseña de su filosofía, expuesta en varias obras (entre ellas el «Tratado teológico político» y la «Etica»). Siendo, a su manera, un místico panteísta, rechazaba toda religión revelada y denunciaba las incoherencias y las contradicciones del Antiguo Testamento, el cual, según él, no había sido dictado por Dios, sino hecho por judíos deseosos de mostrar su historia y su religión bajo cierto aspecto, en relación con las necesidades históricas.

Lo mismo que Descartes, intentó dar, sin dejar de criticar los puntos de su teoría, una vasta explicación del mundo basada en la mecánica y las matemáticas, obedeciendo a una rigurosa lógica de las leyes de la necesidad, en la que asimilaba a Dios con la sustancia infinita, con la Naturaleza. Negaba la existencia de un Dios personal y del libre albedrío. «Nosotros creemos ser libres porque ignoramos las cosas que nos gobiernan. Si se pudiera tener una idea absoluta del orden general que rige la Naturaleza, se comprobaría que cada cosa es tan necesaria como cada principio matemático».

Quería analizar las pasiones y los sentimientos «como si se tratara de líneas, de superficies, de volúmenes».

Alemania produjo otro gran genio en la persona de Leibniz (1646-1716), nacido en Leipzig, agregado al servicio del Elector de Maguncia y después al del duque de Hannover. Pasó cerca de cuatro años en París, donde trató de disuadir a Luis XIV de intervenir en Alemania. Independientemente de Newton, inventó el cálculo infinitesimal (1684).

Su compleja filosofía está basada en la teoría de las «mónadas», elementos, átomos de las cosas, todas diferentes, creadas por Dios, que es la mónada suprema y quien ha regulado el universo dentro de una armonía preestablecida, agrupando las cadenas infinitas de las mónadas y su movimiento. Diferentes, incompletos, frecuentemente contradictorios, rebasados hoy, pero llenos de intuiciones geniales, todos estos sistemas tienen un punto común: una explicación total, rigurosa, científica, de la Naturaleza y de sus fenómenos, de Dios, de la sustancia, del alma, etc..

En un siglo, los progresos son considerables: el pensamiento humano no se inclina ya ante los dogmas y las tradiciones recibidas, sino que busca libremente por medio de su crítica descubrir las leyes que rigen el universo, como ya lo habían intentado los grandes filósofos griegos.

PRINCIPIOS DE LA CIENCIA MODERNA
Muchos pensadores eran, al mismo tiempo que sabios, matemáticos notables. Paralelamente a su obra filosófica y religiosa, Blas Pascal (1623-1662) establecía las bases del cálculo de probabilidades, demostraba la densidad del aire según las hipótesis de Galileo y de Torricelli, inventaba el barómetro, exponía las propiedades del vacío y de los fluidos, así como las de las curvas.

Otros investigadores, igualmente científicos, profundizaron en los descubrimientos hechos a comienzos del siglo: en medicina, después del inglés Harvey, médico de los Estuardo (muerto en 1657), que había construido una teoría revolucionaria sobre la circulación de la sangre y el papel del corazón, el bolones Malpighi (1628-1694), gracias a los progresos del microscopio, analizaba el hígado, los ríñones, los corpúsculos del gusto, las redecillas de las arteriolas, y comenzaba el estudio de la estructura de los insectos.

El holandés Leuwenhoek descubría los erpermatozoides y los glóbulos rojos de la sangre. Los dos chocaban todavía con los prejuicios tenaces de las universidades, en las que reinaba el aristotelismo que había rechazado los descubrimientos de Harvey. Moliere, en su «Enfermo Imaginario», hará, por otra parte, una cruel sátira de los médicos retrógrados.

cientifico del renacimiento

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

El mundo de lo infinitamente pequeño comienza a entreabrirse, aunque aún no sean más que tanteos en química y fisiología. Redi, médico del gran duque de Toscana, abordaba el problema de la «generación espontánea». Suponía que los gusanos no nacen «espontáneamente» de un trozo de carne en descomposición, sino de huevos que ponen moscas e insectos.

Sin embargo, la mayoría de la gente creía todavía en esta generación animal o vegetal, partiendo de pequeños elementos reunidos. El mismo Redi descubría las bolsas de veneno de la víbora, pero otros aseguraban que el envenenamiento era producido por los «espíritus animales» de la víbora que penetraban en la llaga hecha por la mordedura.

La ciencia comenzaba también a ocuparse de las máquinas: Pascal, Leibniz construían las primeras máquinas de calcular. Cristian Huygens (1629-1695) aplicaba a los relojes el movimiento del péndulo. Miembro de la Academia de Ciencias de París, pensionado por Luis XIV, tuvo que regresar a Holanda, su país natal, después de la Revocación del Edicto de Nantes.

Realizó importantes trabajos matemáticos, estudió la luz, presintió su estructura ondulatoria, desempeñó un papel decisivo en astronomía, tallando y puliendo los cristales de grandes lentes, lo que le permitió descubrir un satélite de Saturno, la nebulosa de Orion, así como el anillo de Saturno. Su ayudante, Dionisio Papin construyó la primera máquina de vapor en la que un émbolo se movía dentro de un cilindro (1687). Los ingleses iban a sacar aplicaciones prácticas para extraer el agua de las minas por medio de bombas. Por último, a finales de siglo, Newton formulaba las leyes de la gravitación universal.

“DIOS DIJO: HÁGASE NEWTON Y LA LUZ SE HIZO”

Esta cita del poeta Alexandre Pope muestra bien claro el entusiasmo que levantó el sistema de Newton, publicado en 1687 con el nombre de Philosophiae Naturalis Principia Mathematica. Isaac Newton (1642-1727), alumno y después profesor de matemáticas de la Universidad de Cambridge, terminó su carrera como «inspector de Monedas» y presidente de la Real Sociedad; fue también miembro del Parlamento.

físico ingles Newton

Isaac Newton

A la edad de veintitrés años lanzó las bases del cálculo diferencial, necesario para investigaciones profundas y mejoró su técnica, mientras que Leibniz llegaba a los mismos resultados por un método diferente. Los dos sabios fueron mutuamente acusados de plagio, a pesar de que sus investigaciones eran independientes aunque casi simultáneas.

Las anotaciones de Leibniz eran, por lo demás, más eficaces y los franceses las adoptaron. La invención del cálculo diferencial  e  integral que se funda en la acumulación de las diferencias infinitamente pequeñas, había de permitir resolver los problemas que planteaban las matemáticas del espacio, con sus cambios de tiempo, de lugar, de masa, de velocidad, etc.. Newton se dedicó entonces a estudiar las cuestiones que sus predecesores habían dejado sin solución: ¿por qué los astros describen curvas en lugar de desplazarse según un movimiento rectilíneo? Se dice que fue la caída de una manzana lo que puso en marcha los mecanismos de su reflexión.

Necesitó veinte años para dar las pruebas de sus teorías sobre el movimiento y la gravitación universal, las cuales iban a ser unánimemente admitidas hasta Einstein.

Albert Eisntein

En el espacio vacío, los cuerpos ejercen una atracción mutua; la fuerza de atracción es tanto mayor cuanto menor es la distancia entre dos cuerpos y mayor la masa del cuerpo que ejerce la atracción, o, dicho de otro modo, esta fuerza es directamente proporcional al producto de las  masas  e  inversamente proporcional  al cuadrado de las distancias. Newton extendía a todo el universo los fenómenos que entonces se creían reservados a la Tierra, siendo el cielo teatro de misterios inaccesibles, como lo creía la Edad Media.

Obtuvo una formulación matemática, gracias al cálculo infinitesimal, y consiguió una comprobación en el estudio del movimiento y de la velocidad de la Luna. Estableció, igualmente, que a cada acción se opone igual reacción. Las teorías de Newton chocan con las de Descartes, el cual explicaba la interacción de los astros por medio de los famosos «torbellinos» que agitaban continuamente la «materia sutil» continua, en la que flotaban los cuerpos. A la publicación de «Principia» siguieron numerosas polémicas.

Los cartesianos afirmaban que este principio de atracción era un retroceso a las «cualidades» ocultas de Aristóteles y, a pesar de los argumentos newtonianos, que demostraban la imposibilidad de concebir el espacio celeste lleno de materia, incluso siendo muy fluida, se continuó negando durante largo tiempo la teoría de la gravitación, como lo hicieron Huygens, Leibniz, Fontenelle, Cassini, Réaumur y otros, hasta la confirmación cada vez más brillante que aportaron las experiencias en el transcurso del siglo XVIII. Newton aplicó también su genio al estudio de la luz, explicando por qué los rayos del sol se descomponen en diferentes colores a través de un prisma. Al margen del análisis espectral, hizo numerosos descubrimientos ópticos.

La fe de Newton permaneció viva. Su sistema no eliminaba la exigencia de una causa primera, de un agente todopoderoso «capaz de mover a su voluntad los cuerpos en su sensorium uniforme e infinito para formar y reformar las partes del universo». La ciencia aceptaba a Dios, que debía crear ininterrumpidamente el movimiento, sin el cual todo se pararía poco a poco por degradación de la enegría. Newton murió a la edad de ochenta y cuatro años, rodeado de inmenso respeto, después de haber abierto un campo ilimitado a los descubrimientos de física y matemáticas.
Fuente Consultada:
Enciclopedia de Historia Universal HISTORAMA Tomo VII La Gran Aventura del Hombre

Fuerzas en un Plano Inclinado Descomposicion del Peso

DESCOPOSICIÓN DE UN PESO SOBRE UN PLANO INCLINADO

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión. No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo. Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso. Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py. Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py. Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, O=@ (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @. Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo. En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente. El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra. Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Concepto de Fuerza Centrífuga Aplicaciones Prácticas

Si se hace girar con rapidez un balde parcialmente lleno de agua, con los brazos extendidos alrededor del cuerpo, el contenido no se derrama, aun cuando el balde esté volcado sobre un costado. El principio responsable de este fenómeno es conocido por los físicos con el nombre de fuerza centrifuga.

Al mismo tiempo que se hace girar el balde, el agua tiende a permanecer dentro de éste, presionada hacia el fondo (es decir, hacia afuera con respecto a quien hace girar el balde) o al centro de giro por la fuerza centrífuga. Este es un ejemplo bastante directo de como se origina esta fuerza, aunque hay muchas otras aplicaciones más prácticas.

Sabemos, según las leyes de los cuerpos en movimiento, enunciadas por Isaac Newton, que las fuerzas siempre se originan por pares, siendo cada una de las mismas de igual valor y sentido contrario. La fuerza que se necesita para mantener un cuerpo que gira dentro de su trayectoria, evitando que se vaya hacia afuera, se conoce como fuerza centrípeta y es igual pero de sentido contrario a la fuerza centrífuga.

Fuerza centrífuga en un balde girando. El agua no sale del balde porque es empujada hacia el exterior o fondo.

En el caso del ejemplo mencionado, esta fuerza centrípeta se manifiesta como el esfuerzo realizado por el brazo para sostener el balde. Podemos ver, bastante fácilmente, cómo estas fuerzas se relacionan con la velocidad a la cual el objeto se mueve dentro de su órbita. Un ejemplo emocionante lo constituye, en el espec táculo circense, un motociclista que da vueltas dentro de una gran esfera de malla metálica.

Cuando su máquina se mueve lentamente, el motociclista no puede subir muy alto, pero a velocidades mayores la fuerza centrífuga que tiende a lanzarlo hacia afuera es tan grande, que puede trepar verticalmente hasta la cúspide de la esfera y girar sin perder contacto con la “pista”, a pesar de desplazarse “cabeza abajo”.

La inclinación que se observa en las curvas de las vías férreas obedece al mismo principio: la fuerza centrífuga que impulsa hacía afuera al tren cuando éste toma la curva, es contrarrestada por la fuerza centrípeta que se manifiesta cuando el costado de las ruedas presiona sobre los rieles. Este esfuerzo se reduce considerablemente inclinando las vías en un cierto ángulo, de modo que el riel exterior (el más alejado del centro de la curva) esté a mayor altura que el interior.

Otro ejemplo parecido lo constituye aquella famosa primera pista de Avus, en Alemania, donde ya en el año 1937, los promedios de velocidad establecidos por los coches de carrera llegaban a 261 Km./h., con records hasta de 280 Km./h. Esto podía lograrse porque aquella pista tenía curvas construidas con un extraordinario peralte que llegaba a los 45 grados. De esta manera, se conseguía precisamente vencer la gran fuerza centrífuga que esas velocidades provocaban en los giros. Una idea de dicha fuerza la da el cálculo de que, en el momento de paso sobre la curva, los neumáticos debían soportar nada menos que 3 veces el peso de la máquina.

Peralte o Inclinacion de la Carretera

Los llamados trajes de presión, creados por los japoneses durante la segunda guerra mundial y adoptados luego por casi todas las demás fuerzas aéreas, constituyen una solución bastante aceptable al problema de la tremenda fuerza centrífuga a que está sometido el piloto en un combate aéreo. Este traje evita que, en los giros violentos, la sangre se desplace y se agolpe por centrifugación, con el consiguiente desvanecimiento y pérdida momentánea de la visión. Pero no siempre ¡a fuerza centrífuga resulta negativa; muchas veces el hombre se vale de ella para obtener provecho.

Un buen ejemplo de aplicación práctica de este principio lo tenemos en el aparato denominado centrifuga. Si tenemos una suspensión de un sólido en un líquido, o una mezcla de líquidos de diferentes densidades, es decir, que tienen relaciones diferentes de peso a volumen (por ejemplo crema y leche), y que han sido mezclados hasta formar una emulsión, podemos separarla si la dejamos reposar tiempo suficiente.

Una centrifugadora es una máquina que pone en rotación una muestra para –por fuerza centrífuga– acelerar la decantación o la sedimentación de sus componentes o fases (generalmente una sólida y una líquida), según su densidad. Existen diversos tipos, comúnmente para objetivos específicos.

La atracción que ejerce la gravedad sobre la leche es mayor que sobre la crema, menos densa, que va a la superficie. Este proceso se puede acelerar centrifugando la mezcla (estas centrifugadoras tienen la forma de un cuenco que gira rápidamente). De este modo la leche es impulsada más lejos del centro que la crema, la cual, por no ser tan densa, no sufre con tanta intensidad los efectos de la fuerza centrífuga que se origina.

También bombas centrífugas y turbinas centrífugas que trabajan con líquidos y aire, respectivamente, son un acierto mecánico. Debemos recordar que los turborreactores centrífugos reciben este nombre porque su alimentación de aire lo produce una turbina de ese tipo.

Bomba centrifugadora

En la fundición de metales, las inyectaras centrífugas son insustituibles por la precisión, seguridad y calidad de los colados. Este tipo de inyectora recibe el metal fundido por un tragadero central, y mantiene adosada una batería de matrices a su contorno. Girando a gran velocidad, el metal es centrifugado con gran presión, e inyectado al interior de las matrices.

RAZÓN POR LA CUAL LA TIERRA NO ES ATRAÍDA POR EL SOL

Esquema Sistema Tierra-Sol

Esto se debe a que, a pesar de la atracción gravitacional (fuerza de gravedad) la fuerza centrífuga tiende constantemente a empujar a la Tierra hacia afuera. En este caso, las dos fuerzas están equilibradas. La fuerza de gravedad entre el Sol y la Tierra actúa como una fuerza centrípeta, que tiende a atraer al planeta, que gira en su órbita, hacia el Sol. La fuerza centrífuga originada por el movimiento de rotación, tiende a empujar al planeta en sentido contrario, es decir, fuera del Sol., El resultado es que la distancia entre el Sol y la Tierra se mantiene constante, suponiendo que la velocidad del planeta también se mantenga igual (en realidad, la velocidad de la Tierra sufre pequeñas variaciones, con la consiguiente alteración en la distancia al Sol). El mismo principio se aplica a los satélites artificiales que se ponen en órbita para girar alrededor de la Tierra. La atracción de la gravedad equilibra las fuerzas centrífugas, y los satélites pueden moverse a distancia más o menos constante de la Tierra, “suponiendo que su velocidad sea también constante”. De todos modos, la velocidad se reduce gradualmente, a causa del rozamiento con la atmósfera, y los satélites tienden a caer hacia la Tierra.

Formula de la Fuerza Centrípeta:

Diagrama de un cuerpo girando, Fuerza Centrifuga

Ejemplo: si se toma una piedra de 2 Kg. de masa, atada a una cuerda y se la hace girar con un radio de 1,2 m. a razon de 2 vueltas por segundo. Cuanto vale la fuerza centrífuga que debe soportar la cuerda?.

La masa es de 2 Kg., el radio: 1,20 metro, pero nos falta la velocidad tangencial Ve, pues la del problema es la velocidad angular.

Para ello se sabe que dá dos vueltas en un segundo, entonces el recorrido es, dos veces el perímetro de la circunferencia por segundo. Podemos hallarlo asi: 3.14. 1.2. 2=7.53 m. cada vuelta , por dos es: 15,07 m. distancia que la masa recorre en 1 segundo, por lo tanto la velocidad tangencial es: 15,07 m/seg.

Aplicando la formula se tiene que Fc= ( 15,07 )². 2 /1,2² =454/1.44=315,27 Newton

Fuente Consultada:
Revista TECNIRAMA N°21 Enciclopedia de la Ciencia y La Tecnología -La Fuerza Centrífuga-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Cálculo del Radio de la Orbita en el Átomo de Hidrógeno

Cálculo del radio de la primera órbita del átomo de hidrógeno
Como es sabido, un átomo puede compararse a un sistema solar en miniatura. El centro, o núcleo, es relativamente pesado y estacionario, mientras que los electrones giran alrededor, en forma similar a como los planetas giran alrededor del Sol.

En general, las distancias electrón-núcleo son del orden de  10-8 cm, 0,00000001 cm.

esquema radio del hidrogeno

En un átomo la fuerza que mantiene a los electrones en sus órbitas no es gravitatoria, sino de naturaleza electrostática, ya que el protón (único componente del núcleo en el átomo de hidrógeno) y el electrón tienen cargas contrarias.

Neils Borh

Niels Bohr

Al igual que la fuerza gravitatoria, la electrostático es inversamente proporcional al cuadrado de las distancias.

Teniendo en cuenta que en una órbita circular la fuerza centrípeta está constituida por esta fuerza de atracción electrostática, e introduciendo el postulado de Niels Bohr, que establece que el momento angular del electrón en una órbita circular está cuantificado, es decir, sólo puede alcanzar valores enteros de h/2.¶ , donde h es la constante de Planck,   obtendríamos  la  siguiente expresión:

formula radio orbita del hidrogeno

que nos permite hallar para la distancia requerida el valor de 5.28.10-9 cm., sustituyendo las constantes n (en este caso es igual a 1, por ser la primera órbita), h (constante de Planck), m y e (masa y carga del electrón) por sus valores respectivos.

Valores de:
h=6.62606957 ×10 -34 J×s
m=9,109 382 91×10−31 Kg.
e=1,602 × 10-19 culombios

El valor obtenido, conocido como radio de Borh es: 5,291 772 0859×10−11 m.

 

Calcular la Velocidad de Una Bala Pendulo Balistico

HALLAR LA VELOCIDAD DE UNA BALA

La velocidad de una bala de rifle o de pistola puede medirse con un aparato llamado péndulo balístico. Consiste en esencia de un bloque de madera o dé plomo, de masa M, suspendido por una cuerda, como se indica en la figura.

pednulo balistico calcula velocidad de una bala

Si disparamos una bala de rifle de masa m y velocidad v contra dicho bloque, obligaremos a éste a recorrer el arco @, que puede ser medido fácilmente. Cuando la bala ha penetrado en el bloque, el conjunto se mueve con una velocidad V, y de acuerdo con el principio de conservación de la cantidad de movimiento, podemos escribir:

m . v = (M + m).V

Para hallar el valor de v, velocidad del proyectil antes de que se produzca el impacto, sólo nos resta pues conocer el valor de V, velocidad del conjunto después de que la balo se ha incrustado en el bloque.

Esta velocidad se puede hallar fácilmente aplicando el principio de conservación de la energía al movimiento de (M+ m) desde A, donde la energía es totalmente cinética (y potencial nula), hasta el final de su recorrido B, donde toda la energía es potencial (y cinética cero)

1/2 (M + m) V² = (M + m) g. h

Despejando V de esta fórmula de conservación de la energía es: V= (2.g.h)½ (elevado a 1/2 ó raíz cuadrada)

Midiendo directamente h, o hallando su valor a partir de l , @ (usando trigonometría) encontraremos V, que, sustituida en la primera fórmula, nos indicará el valor de la velocidad de la bala antes de producirse el impacto (g representa la aceleración de la gravedad, es decir, aproximadamente 9,8 m/seg²).

Amianto Aplicaciones, Propiedades y Riesgos de Cancer

El amianto o asbesto es conocido por el hombre desde hace por lo menos 2.500 años. A causa de su singular resistencia al fuego, se atribuían a esta sustancia propiedades mágicas. Se dice que el emperador Carlomagno demostró sus poderes sobrenaturales arrojando al fuego un mantel de amianto que recuperó intacto. La resistencia al fuego es la propiedad que más llamaba la atención de los antiguos, pero no es la única cualidad del amianto, que ha probado ser enormemente apto en aplicaciones industriales.

Es un excelente aislante del calor, del sonido y de la electricidad, y su naturaleza fibrosa permite que se pueda trabajar para elaborar telas para trajes, etc. Mezclado con otros materiales como el cemento proporciona un excelente material de construcción. El amianto es flexible, resistente a los ácidos y a los álcalis y no se deteriora  con el  tiempo.

Amianto

Hablar solamente de “amianto” no es precisar mucho, pues el amianto no es una sustancia única. Hay muchas variedades de él, y cada variedad posee en distinto grado las propiedades ya indicadas.

El valor comercial del amianto depende grandemente de dos cualidades: su incombustibilidad y su singular estructura fibrosa. La última permite separarle en fibras o filamentos que, en la variedad usada con más frecuencia, poseen una gran resistencia a la tracción y son muy flexibles.

Podemos decir que las principales propiedades del amianto son:

Incombustibilidad.
Elevado aislamiento térmico.
Elevado aislamiento acústico.
Resistencia a altas temperaturas.
Resistencia al paso de electricidad.
Resistencia a la abración.
Resistencia al ataque de microorganismos.

Debido a estas especiales características, el amianto se ha usado para una gran variedad de productos manufacturados, principalmente en materiales de construcción (tejas para recubrimiento de tejados, baldosas y azulejos, productos de papel y productos de cemento con asbesto), productos de fricción (embrague de automóviles, frenos, componentes de la transmisión), materias textiles termo-resistentes, envases, paquetería y revestimientos, equipos de protección individual, pinturas, productos de vermiculita o de talco. El amianto también está presente en algunos alimentos.

YACIMIENTO Y ORIGEN
El amianto, tal como se encuentra en la naturaleza, es una roca, tan sólida y densa como el granito. Se encuentra subterráneamente en vetas delgadas, incluidas en rocas que tienen una composición química parecida.

Incluso hoy día no hay una idea clara de cómo el amianto se formó en la corteza terrestre. La teoría más generalizada es la de que la roca subterránea se transformó por la acción del agua caliente, que contenía sales disueltas y anhídrido carbónico. Al producirse grietas en la roca, éstas se llenaron de agua, y, durante largos períodos de tiempo, ocurrieron reacciones químicas, que dieron lugar a capas gelatinosas que eventualmente cristalizaron para formar el mineral, fibroso y estrechamente empaquetado, que hoy día conocemos.

VARIEDADES   DE   AMIANTO
El nombre de amianto, en una acepción amplia, puede darse a todo mineral natural capaz de ser manejado o transformado en fibras. Hay, por lo menos, treinta tipos distintos de minerales que forman lo que se llama el grupo asbestiforme, y que tienen grandes semejanzas, pero solamente seis poseen importancia comercial.

En orden de importancia, son:   el crisotilo  o  amianto blanco,  la crocidolita o amianto azul, la amosita, antofilita, tremolita y actinolita. Se dividen en dos grupos principales: los amiantos de crisotilo (o serpentina) y los amiantos anfibólicos.

Las diferencias entre los distintos tipos provienen de la roca o matriz donde el amianto se encuentra. Desde el punto de vista químico, son complicados silicatos de magnesio que, generalmente, contienen uno o varios de los siguientes metales: sodio, aluminio, hierro y calcio.

CRISOTILO
Es la variedad más importante de mineral de amianto, y constituye el 80 ó 90 por ciento de la producción mundial. Se encuentra principalmente en Canadá, en la U.R.S.S. y en Rodesia del Sur. Su color varía desde el blanco puro hasta el verde grisáceo, dependiendo de las impurezas que contenga.

El crisotilo no se altera a temperaturas de hasta 450 ó 500 °C, en que empieza a perder agua estructural. Sus fibras resisten la acción de los álcalis, pero no la de los ácidos, y los ácidos minerales  fuertes  las  disuelven  completamente.

Crisolito o Amianto Blanco

Algunas fibras de crisotilo tienen hasta ocho centímetros de longitud, aunque la mayoría están por debajo de los cuatro centímetros. Son fuertes y flexibles, trabajándose con facilidad, probablemente a causa de las cantidades de talco que se encuentran en ellas.

Estas propiedades, juntamente con su resistencia, longitud, y mala conductividad eléctrica (gran resistencia al paso de la corriente), lo hacen muy adecuado para la manufactura de amianto textil. Cuando se muele la roca, el amianto se descompone en fibras, y la parte de roca adyacente se pulveriza.

De esta forma, ambos se separan fácilmente. Frotando la superficie de la roca, pueden obtenerse fibras extremadamente finas, que, de hecho, son haces de fibras todavía más finas, las cuales pueden separarse a mano. Incluso esas fibras pueden subdividirse a su vez.

Con el microscopio electrónico han podido medirse los diámetros de las fibras más finas, que son del orden de dos millonésimas a veinte millonésimas de centímetro. Las fibras que se usan en la práctica son mucho  más  gruesas.

Los  estudios  modernos  con  el  microscopio electrónico sugieren que. las fibras de crisotilo son huecas, a pesar de que los tubos pueden estar rellenos de material menos cristalino, pero con la misma composición química. Esto serviría de explicación al hecho de que las fibras sean suaves, elásticas y absorbentes. Su resistencia a la tensión es muy grande; por término medio, del orden de la de una cuerda de acero para piano del mismo diámetro, aunque se han obtenido valores de resistencia doble.

AMIANTOS ANFIBÓLICOS
Los amiantos que derivan de este grupo se diferencian de los del crisotilo por su mayor riqueza en sílice, hierro, aluminio, sodio y calcio. Sin embargo, contienen menos magnesio. Cada uno de ellos incluye dos o más de esos metales en diferentes proporciones. La crocidolita, que tiene un color azul peculiar, y la amosita, que varía desde el blanco al pardo amarillento, son las variedades más importantes. Ambos son silicatos de hierro; el primero contiene dos tipos de hierro y sodio, y el segundo, hierro ferroso y magnesio.

La crocidolita posee magníficas propiedades de resistencia al calor, semejantes a las del crisotilo. Los amiantos anfibólicos son más ásperos al tacto y, por’consiguiente, más difíciles de trabajar, y menos aptos para la fabricación de tejidos, a pesar de que sus fibras son más largas y que su resistencia a la tracción es grande (mayor que la de las cuerdas de acero para piano). La propiedad más importante de la crocidolita es su resistencia al ataque por los ácidos.

La crocidolita se encuentra principalmente en Sudáfrica, pero también hay grandes yacimientos en Bolivia y en Australia. La amosita se encuentra solamente en Sudáfrica. La resistencia a la tensión es mediana, pero, para algunas aplicaciones, su resistencia al calor resulta superior a la del crisotilo o la crocidolita. Sus fibras pueden tener hasta 30 centímetros de largo, y se usa principalmente para la fabricación de aislantes térmicos. Dado que la amosita es menos flexible y tiene menor resistencia a la tracción que el crisotilo y la crocidolita, sus aplicaciones son bastante limitadas.

Las fibras de los amiantos anfibólicos no sólo son más largas que las del amianto blanco, sino también más gruesas (de 400 a 100 milésimas de centímetro, en vez de dos millonésimas de centímetro). Son sólidas, y, por lo tanto, duras y elásticas, pero quebradizas.

Riesgos del amianto: Existe el riesgo de contraer determinadas enfermedades específicas provocadas por la inhalación de fibras de amianto: asbestosis, cáncer pulmonar y mesotelioma de pleura y/o peritoneo, además de una irritación crónica de la dermis.

Está compuesto por fibras microscópicas que pueden permanecer en suspensión en el aire el tiempo suficiente para que representen un riesgo respiratorio. Cuando el contacto es prolongado puede provocar son enfermedades del aparato respiratorio. El cáncer de pulmón es la más mortal de las enfermedades que afectan a las personas expuestas al amianto.

Otra enfermedad respiratoria es la asbestosis es una enfermedad asociada directamente a la exposición al amianto. Consiste en el desarrollo de una fibrosis pulmonar tras la inhalación de asbesto que con el tiempo dificultad para respirar.

MINERÍA Y TRATAMIENTOS
La mayoría de las rocas que contienen los minerales del amianto se explotan relativamente cerca de la superficie, por lo que esta minería resulta relativamente económica y sencilla, en comparación -con la minería profunda. Con frecuencia, las explotaciones están al descubierto.

A veces, sin embargo, se practican túneles en el frente de la roca, y el mineral se saca en vagonetas. El mineral bruto, con grandes cantidades de ganga, se pica o se dinamita de la roca, de forma parecida a como se hace con el carbón, y se separa provisionalmente a mano. La roca acompañante se tira y el material se lleva al grupo separador donde se extraer; las fibras largas.

Éstas forman el 3 % del mineral extraído, y son susceptibles de ser tejidas. El resto se tritura y se pasa por tamices. Los residuos se aventan para recuperar las pequeñas cantidades de amianto que puedan quedar. La producción de fibra es pequeña: una tonelada de fibra por cada ocho o hasta treinta toneladas de roca triturada.

La fibra de amianto separada por los tamices se lleva a un molino que funciona como un mortero, y a continuación se pasa a un molino de alta velocidad, donde las fibras se separan aún más.

APLICACIONES DEL AMIANTO
Las fibras largas usadas para tejer reciben un tratamiento más cuidadoso para separar las longitudes desiguales, los fragmentos de roca y las fibras no abiertas. A continuación se cardan, se bobinan y se tejen o trenzan. Generalmente se refuerzan con alguna fibra vegetal o, en algunos casos, con finos hilos de metal.

El tejido de amianto tiene muchas aplicaciones industriales. Se usa en revestimientos aislantes de muchas clases, para juntas y protecciones de calderas. Para estos revestimientos, la cubierta exterior de tejido de amianto se rellena de fibra suelta del mismo material. Los revestimientos están solamente extendidos y tensados, de forma que pueden quitarse fácilmente cuando hay que hacer reparaciones o para su manejo.

Los trenzados de amianto tienen usos muy variados en la industria para empaquetamientos y juntas, especialmente para máquinas de vapor y para bombas. Su resistencia al calor y su larga duración les hace excelentes para tales aplicaciones. Otra aplicación de relieve es en los frenos y embragues, donde las propiedades importantes son las de la resistencia y no alteración por el calor. La lisura del amianto permite que la pieza giratoria encaje sin vibración ni desgaste. La mayoría de las camisas anti-fricción se fabrican con tejido de amianto o se moldean con fibras o resina de este material.

Las fibras cortas de amianto son la mayor parte de las obtenidas en la mina y se usan para hacer tableros y objetos prensados. Hay una demanda creciente de fibrocemento (cemento con fibras de amianto) en la industria, especialmente en la de la construcción. Se usa para cubiertas de tejados y paredes, para edificar depósitos y hangares, así como para compartimientos. Los productos de fibrocemento moldeado se usan en la construcción de canales, desagües, tuberías, depósitos, tubos para cables y acequias.

Los tubos subterráneos de fibrocemento de gran diámetro se fabrican con destino a aprovisionamientos de aguas, cloacas y drenaje. La fibra de amianto puede también esparcirse sobre objetos, especialmente si se desea protección contra el fuego. Cuando la fibra se mezcla con un líquido, cada haz de fibras absorbe cierta cantidad de éste. Esta propiedad hace posible el pegarla sobre estructuras de acero, por ejemplo, o sobre la parte inferior de los pisos, para evitar que las llamas puedan extenderse a otras habitaciones.

El amianto de usa también mucho en el aislamiento del sonido. El amianto esparcido o pegado en las superficies es especialmente útil. Como material absorbente del sonido, se usa en las salas de cine o de conciertos, para eliminar las superficies que reflejan el sonido produciendo eco.

El amianto esparcido se aplica también a superficies frías donde, de otra forma, se acumularía la humedad. El amianto esparcido disminuye el enfriamiento de la capa de aire próxima a la superficie (por ejemplo, en un techo) y, de esta manera, evita la condensación.

El uso de amianto fue absolutamente prohibido en España en diciembre de 2001, si bien algunas de sus variedades se prohibieron antes como el amianto azul en 1984 y el amianto marrón en 1993.

Fuente Consultada:
TECNIRAMA La Enciclopedia de la Ciencia y la Tecnología Fasc. N°56
Sitio web español: http://www.amianto.com.es/

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Vida de Bunsen Roberto Inventor del Mechero Científico

En el siglo XIX floreció en Alemania una aristocracia científica. En aquella época, los químicos eran personajes muy importantes y gozaban de gran estima entre el resto de la población. Pero no sólo eran respetados, sino que, con frecuencia, los científicos notables estaban muy bien remunerados, disfrutando de un elevado nivel de vida. La admiración general que la química despertaba, atrajo a los mejores investigadores de otros países, y nadie podía ser considerado un buen químico si no había realizado estudios en Alemania.

Bunsen Robert

Roberto Guillermo Bunsen (1811-1899) fue uno de los personajes más brillantes de la Alemania del siglo xix. Inició sus estudios de zoología,  física y  química  en su ciudad natal, Goettinga (Alemania), ampliando sus conocimientos en París, Berlín y Viena. Fue nombrado profesor de química de la Universidad de Heidelberg, en 1852.

Fue un experimentador audaz. En el curso de uno de sus experimentos perdió la visión de un ojo, lo que no impidió que repitiera el experimento delante de sus alumnos, aterrorizando a los que ocupaban los primeros bancos. En otra ocasión, estuvo a punto de morir envenenado por arsénico y, durante sus experiencias con este elemento, descubrió que el óxido de hierro hidratado era un antídoto eficaz contra dicho tóxico.

Su nombre es recordado, principalmente, por el aparato de laboratorio ideado por él y llamado, en su honor, mechero Bunsen. El gas era, en aquella época, la fuente de calor más usada en los laboratorios; pero si abrimos una llave de gas y prendemos el chorro que brota por el extremo del tubo, la llamita luminosa que se produce es relativamente fría.

Esto se debe a que no existe suficiente cantidad de oxígeno, en el interior de la llama, para que el gas se queme por completo, y el carbono que no ha ardido se deposita en forma de una capa negra, ennegreciendo los objetos calentados. El mechero diseñado por Bunsen aumenta la eficacia calorífica de la llama, ya que su temperatura es más elevada y no deposita hollín. Para conseguirlo, dispuso una entrada de aire regulable en la base del tubo.

La corriente de gas succiona el aire a través del orificio y, si la mezcla resultante contiene 2,5 veces más aire que gas, la llama que produce un zumbido característico será limpia y de gran poder calorífico. Pero si contiene un exceso de aire, la llama se propagará al interior del tubo, ardiendo en la base, en lugar de hacerlo en el extremo superior; es decir, el mechero se cala. Bunsen estudió el tamaño del tubo y del orificio de entrada de aire, hasta conseguir resultados satisfactorios.

Mas, sus esfuerzos científicos no se concentraron en una sola dirección, sino que trabajó en diversos campos, realizando descubrimientos importantes. Inventó una pila de carbono-cinc y un calorímetro de hielo; obtuvo magnesio metálico en grandes cantidades, empleándolo, en parte, como fuente luminosa; contribuyó al análisis de gases y estudió las solubilidades de éstos en los líquidos. Otra de sus invenciones, el jotómetro de mancha, es un dispositivo que se emplea para comparar la intensidad de dos fuentes luminosas, y todavía lleva su nombre.

En colaboración con Kirchhoff, estudió el espectro emitido por los elementos al calentarlos, encontrando dos espectros no identificados, que les condujeron al descubrimiento del cesio y el rubidio. Tras una vida muy activa, falleció en 1899, a la edad de 88 años.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°88 Roberto Bunsen

Diferencia entre peso y masa Concepto Físico

El peso y la masa son, probablemente, las palabras más intensamente empleadas por el lenguaje científico. Están en tan íntima relación que, en circunstancias normales, el peso y la masa de un objeto tienen exactamente el mismo valor numérico. 10 kilos de papas tendrán un peso de 10 kilos y una masa de 10 kilos.

Como los valores son los mismos, se tiene la falsa impresión de que las palabras son sinónimas. Si hemos pesado una zapallo con un aparato que funciona mediante el alargamiento de un resorte (cuanto más pesado sea el objeto, el resorte se estira más), entonces medimos realmente el peso. El zapallo tiene un peso de 10 kilos.

Cuando se ponen las papas en el platillo del aparato, el resorte tira del platillo y de su contenido hacia arriba, oponiéndose a su alargamiento. Por otra parte, la fuerza de la gravedad actúa sobre el zapallo, empujándolo hacia abajo. El resorte se larga hasta que estas dos fuerzas opuestas se equilibran exactamente, y el peso se lee como una medida de dicho alargamiento.

balanza de resorte pensado

Esta balanza de resorte mide la fuerza (P) con que es atraída la masa del zapallo, que según la Ley de Newton, es igual a la masa (m) por la aceleración de la gravedad (g) , ósea: P=m.g. Esta balanza mide peso o fuerza, y según donde se haga a medición variará, porque depende del valor de “g”, no es lo mismo pesar en la Tierra que en la Luna, o en cualquier orto planeta, es decir, el peso varía según la masa m y la aceleración g. Cuanto mas masa o mas aceleración, mayor será el estiramiento “x” del resorte.

El resorte mide, por tanto, la magnitud de una fuerza que intenta estirarlo, y por ello el peso debe ser una clase de fuerza. El empuje hacia abajo del zapallo  depende de dos factores: la cantidad de sustancia o materia contenida en las papas y la atracción de la gravedad de la Tierra. La masa del zapallo no depende del lugar donde se encuentre éste; a menos que se les quite algún trozo, la cantidad de materia que las compone será siempre la misma.

En cambio, el campo gravitatorio de la Tierra (la atracción que ésta ejerce sobre un cuerpo) varía. Si dejamos caer una piedra en un pozo sufrirá un incremento de velocidad de 9,8 metros por cada segundo que cae.

Si la piedra cayera desde un satélite en órbita, situado a muchos kilómetros de distancia, entonces, en un segundo, el incremento de velocidad sería muchísimo menor. Esto es debido a que la piedra se encuentra más lejos de la Tierra y la influencia de esta última sobre ella es mucho menor.

A medida que cambia la acción del campo gravitatorio de la Tierra, cambia el peso del objeto. Si utilizamos un dinamómetro, el zapallo pesará ligeramente menos en la cima de una montaña que al nivel del mar. En cambio, la masa es algo que no varía nunca. Es la cantidad de materia que contiene una sustancia.

Un bloque de plomo está compuesto de un número determinado de átomos. Cada átomo tiene 82 protones, 126 neutrones y 82 electrones. En otras palabras, cada átomo tiene cierta cantidad de materia en él. No importa que el bloque de plomo está en el fondo de un pozo, en la cima de una montaña o en la superficie de la Luna: si no se le ha quitado ni añadido nada, contiene la misma materia y, por lo tanto, la misma masa.

Por este motivo, para medir la masa hay que utilizar un aparato que dé la misma medida, cualquiera que sea el lugar donde sea utilizado. A este fin se usa una balanza. El objeto cuya masa se desconoce, se coloca en el platillo izquierdo de la balanza.

balanza de masa

El platillo desciende, y el brazo de ésta se inclina al no haber nada en el otro platillo para equilibrarlo. Unas pesas metálicas (denominación impropia, pues deberían llamarse masas) se colocan en el otro platillo hasta alcanzar el equilibrio: una masa se equilibra con otra masa.

Si se lleva la balanza a un lugar donde la atracción de la gravedad sea mucho menor, el objeto sufre un menor empuje, pero también le ocurre lo mismo a las “pesas” del otro platillo, y se obtiene el mismo resultado. La balanza de precisión se utiliza para medir masas con una exactitud de cuatro diez-milésimas.

Las pesas, por lo tanto, deben tratarse con mucho cuidado. Si se desgastan pierden cierta masa, y en contacto con los dedos se ensucian con la grasitud de las manos y sufren un aumento de masa. Por ello se deben tomar siempre con pinzas. Éste es uno de los motivos por los que las balanzas de mayor precisión se manejan por control  remoto.

Fuente Consultada:
Enciclopedia de la Ciencia y Tecnología TECNIRAMA N°86

Descubrimiento del Oxígeno Experiencias de Priestley

Descubrimiento del Oxígeno Experiencias de Priestley

José Priestley nació cerca de Leeds (Inglaterra), en 1733, y trabajó en una época en la que la alquimia comenzaba a desacreditarse y ser reemplazada por el pensamiento científico lógico. Anteriormente, la investigación química había sido instigada por el sueño de convertir en oro sustancias de escaso valor, y se sabía, a la sazón, muy poco de ciencia química.

Priestley y sus contemporáneos, Lavoisier, Black, Scheele y Cavendish, contribuyeron a la acumulación de datos y a la preparación de nuevas sustancias químicas. Como ha ocurrido a menudo en la historia de la ciencia, sus trabajos, muchas veces, eran idénticos y se obtenían los mismos resultados por dos científicos que trabajaban independientemente.

Por ejemplo, Priestley y Scheele pretendieron ambos ser los descubridores del gas conocido hoy como oxígeno. Años después, se derivaron muchas leyes del conjunto de conocimientos químicos que estos hombres aportaron, y con ello dio comienzo el desarrollo de las ideas generales de la química.

Priestley José Oxigeno

Priestley fue el primero en introducir gases, mediante burbujas, en una vasija invertida llena de mercurio, aplicando su boca a un tubo de mercurio. De esta manera, podían ser recogidos gases imposibles de recoger a través del agua porque se disuelven en ésta. Hacia 1770, Priestley había recogido y estudiado los gases solubles en agua que conocemos como amoníaco, dióxido de azufre y cloruro de hidrógeno.

Se recuerda a Priestley, fundamentalmente, por sus trabajos con los gases. Su principal interés se centró en el aire y en la necesidad de éste para el desarrollo de la vida. Experimentó con ratones, colocándolos en un espacio de aire cerrado, para observar cuánto tiempo podían vivir en esas condiciones, y comprobó que, una vez muerto el ratón, era imposible hacer arder una vela en aquel aire.

Sin embargo, al colocar una planta dentro del aire enrarecido, observó que, de algún modo, el aire parecía regenerarse y la vela podía arder nuevamente. Ésta fue la primera noticia que se tuvo de la reacción hoy conocida como fotosíntesis, pero Priestley no se dio cuenta de que la luz era un factor esencial en la regeneración del aire.

En 1774, Priestley preparó y recogió una muestra de oxígeno bastante puro, cubriendo óxido mercúrico rojo con una campana de vidrio y calentándolo con los rayos solares, mediante una lente. Comprobó que una vela ardía con más brillo en el nuevo gas, y que un ratón podía vivir durante más tiempo en un recipiente lleno de dicho gas, que en otro del mismo volumen lleno de aire. El mismo Priestley respiró el gas, para comprobar sus efectos, y notó que se sentía lleno de energía y que sus pulmones respondían eficientemente. Pensó que tal vez el gas sería útil en medicina.

Es sorprendente que, con este conjunto de datos, Priestley no se diera cuenta de que el gas obtenido del polvo rojo era el componente vital del aire. En vez de ello, se aferró a la teoría del flogisto. Priestley pensó que, cuando se quemaban las sustancias, perdían flogisto, y que éste era absorbido por algún otro cuerpo. Los cuerpos podían arder en el aire porque éste no estaba saturado de flogisto y era capaz de absorberlo. Cuando el aire se saturaba ya no podía mantenerse por más tiempo la combustión.

En 1772, Priestley publicó un importante trabajo, con el título de Observaciones sobre las diferentes clases de aire, en el que se describía la obtención, en el laboratorio, de varios gases nuevos, como los óxidos nitroso y nítrico, nitrógeno, bióxido de nitrógeno y ácido clorhídrico. Recogió los gases insolu-bles sobre agua y los solubles sobre mercurio. El soporte utilizado por él para recoger gases es el antecesor del soporte en forma de colmena que se utiliza en los laboratorios hoy día.

Aunque era bastante conservador en sus ideas científicas, sus ideas políticas eran todo lo contrario, su violento apoyo a la Revolución Francesa fue causa de que su casa se viera asaltada por las turbas de Birmin-ghan, que la mantuvieron asediada durante tres días.

José Priestley, científico y pastor protestante no-conformista, murió en  1804.

equipos quimicos de priestley
Parte del  laboratorio  de  Priestley.  Los  gases  desprendidos  por  las  sustancias  calentadas  en   la  chi’ menea   o   con   una   vela   se   recogen   sobre   mercurio.En su recogida de gases, Priestley trabajó con el mercurio, pero no pudo emplearlo de manera más directa en sus experimentos. En efecto, cuando el mercurio se calienta en el aire, forma un compuesto rojo ladrillo que ahora llamamos óxido de mercurio.

Priestley calentó algo de este compuesto en un tubo de ensayo, utilizando una lupa a fin de concentrar en él los rayos de sol. Al proceder así, el compuesto se fragmentó, liberando mercurio en forma de glóbulos brillantes en la parte superior del tubo de ensayo. Además, se desprendió un gas que poseía las más insólitas propiedades. Los combustibles se consumían más brillante y rápidamente en él que en el aire ordinario.

Los ratones colocados en una atmósfera de este gas se mostraban particularmente retozones, y el propio Priestley se sintió “ligero y a gusto» cuando lo respiró. Estaba claro que era el oxígeno lo que mantenía la combustión y la vida animal, y asimismo lo que intervenía en la oxidación.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnologia TECNIRAMA N°86 -José Priestley –

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS BÁSICOS DE LA TEORÍA TÓMICA: ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos. La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro. Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos. Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos). Hay “macromoléculas” formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico. Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles. Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción. Preparó un “código” en base a símbolos gráficos que utilizaba para representar la fórmula o “receta” por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.). Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.  Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O. Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados. De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos. El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada “conservación de la masa” y la otra la “ley de las proporciones definidas” que dicen:

1-Ley de la Conservación de la Masa: “En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)”.

2-Ley de las Proporciones Definidas: “Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas”.

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la “receta química” o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su “peso atómico” es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su “receta” o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante “ley”: “Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas”.

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
Agua H2O 18
Hidrógeno H2 2,0
Cloruro de hidrógeno ClH 36,5
Oxígeno O2 32,0
Ozono O3 48,0
Dióxido de azufre SO2 64
Trióxido de azufre SO3 80
Ácido sulfúrico S04H2 98
Amoníaco NH3 17
Pentóxido de fósforo P2O5 142
Trióxido de fósforo P2O3 110
Dióxido de carbono CO2 44
Trióxido de aluminio Al2O3 102
Óxido de calcio CaO 56
Carbonato de calcio C03Ca 100
Óxido cúprico OCu 80
Óxido ferroso OFe 72
Óxido férrico 03Fe2 160
Óxido mercúrico OHg 216
Hidróxido de potasit) KOH 56
Hidróxido de sodio NaOH 40
Clorato de potasio Cl03K 123
Cloruro de sodio CINa 58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada

PLANISFERIO MAPA DEL MUNDO MAPAMUNDI Mapa Político del Mundo Paises

POR RAZONES DE ESPACIO SE HA DIVIDIDO EL PLANISFERIO EN DOS PARTES, PERO PUEDE ACCEDER A UN GRAN PLANISFERIO OCUPANDO TODA LA PANTALLA.

planisferio

planisferio

planisferio

planisferio

VENTANA CON MAPA COMPLETO

 

Descargar Distintos Planisferios en Diversos Formatos
 Planisferio Mudo con Sus Costas y Ríos
 Planisferio Mudo con Sus Costas y Poblados
 Planisferio Mudo con Poblados con Nombres
 Planisferio con los Estados o Países
 Planisferio con los Estados o Países a Color
 Planisferio Hidrográfico a Color
 Ver Todas Las Opciones

 Descarga de Mapas de los Países del Mundo

Otros Enlaces en Este Sitio
Mapa de América
Mapa de África
Mapa de Asia
Mapa de Europa
Mapa de Oceanía
Los Continentes del Planeta
10 Curiosos Datos Estadísticos del Mundo
Nombres y Banderas De  Los Países de América
Geografía del Mundo
Turismo Virtual
Juego de Ubicar Lugares en el Mundo

Cartografía del mundo
Hace casi 500 años, cuando se generalizó la creencia de que la Tierra era una esfera, los cartógrafos establecieron dos premisas esenciales. Una implicaba un sistema general de meridianos de longitud (del latín longus, «largo») y paralelos de latitud (de latus, «ancho»), que harían posible fijar cualquier situación en el globo. La segunda suponía un método de transferir detalles de una esfera a un planisferio, procedimiento que los cartógrafos modernos llaman una «proyección». Como la Tierra es redonda, no tiene esquinas desde las cuales puedan ser hechas las mediciones. Por lo tanto se utilizan dos puntos definidos de medición, el Polo Norte y el Polo Sur que son los extremos del eje imaginario sobre el cual gira la Tierra.

Al cartografiar la Tierra, los cartógrafos sitúan el Ecuador (la línea del centro alrededor de la Tierra) y los paralelos de latitud como rebanadas de la esfera. Cada paralelo es un enorme círculo dividido en 360°. Cada grado es equivalente aproximadamente a 60 millas náuticas empezando por el Ecuador (una milla náutica equivale a 1.852 metros). Los grados se dividen en 60 minutos, y cada minuto equivale a una milla náutica. El minuto se divide en 60 segundos.

El Ecuador está a 0° de latitud. Hacia el norte, los paralelos a partir del Ecuador están divididos de 1° a 90° (1/4 de círculo) y son llamados «latitud norte». Los paralelos, hacia el sur están también numerados del 1° al 90° y son denominados «latitud sur».

Los paralelos no son suficientes para indicar una localización en la Tierra, así que los cartógrafos colocan meridianos curvados (también medidos en grados, minutos y segundos) de longitud que convergen en los polos Norte y Sur. Como los meridianos cruzan los paralelos, dada la latitud y longitud de cualquier punto de la Tierra, uno puede localizarlos fácilmente.

Mientras que los paralelos de latitud empiezan con 0° en el Ecuador, el meridiano 0° de longitud utilizado desde 1884 por unos 25 países es el meridiano en que está situado el observatorio de Greenwich en Londres, Inglaterra. (Anteriormente muchos países utilizaban los meridianos que pasaban por sus capitales como primer meridiano.) Los meridianos se miden hasta el 180° al este de Greenwich y 180° al oeste de Greenwich. La longitud y el tiempo son inseparables. Una hora es el equivalente a 15° de longitud. Un grado es igual a 4 minutos de tiempo.

La transferencia de las líneas curvadas de los meridianos y paralelos al papel plano de modo que las líneas rectas puedan ser utilizadas como direcciones de compás, se logra por un sistema generalmente llamado como proyección Mercator, por Gerardus Mercator, matemático, geógrafo y grabador, que falleció en 1594.

En su sistema de proyección, todos los paralelos y meridianos forman ángulos rectos entre sí (no curvados como serían en el globo). Los meridianos convergentes de longitud son separados hasta que quedan rectos y paralelos. Mercator lo compensó extendiendo las distancias entre paralelos a un promedio creciente desde el Ecuador hasta los polos. Las tierras y mares fueron distorsionados por el método Mercator, particularmente en las regiones polares. Al enderezar los meridianos, Mercator produjo un enrejado de líneas rectas sobre el mapa, haciéndolo de gran valor para direcciones exactas de compás. El profesor Edward Wright de la universidad de Cambridge mejoró el sistema de proyección Mercator en 1 5 90 y esta adaptación fue aceptada generalmente hacia 1630 y continúa sirviendo a los navegantes aéreos y terrestres y se dice que no tiene igual como ayuda en la navegación. En la actualidad hay en uso otros tipos de proyección; pero todos tienen cierto grado de distorsión.

Los mapas del mundo revelan que menos del 30 % de la superficie de nuestro planeta es tierra; el resto es agua. La navegación segura en el agua en la actualidad depende de una carta náutica, que muestra las profundidades del agua, las posiciones de los cables submarinos, las marcas de reconocimiento terrestres, zonas de anclaje o de prohibición de anclaje, localización de boyas, luces u otras señales luminosas, y otras informaciones. Una carta oceanógrafica es empleada para proporcionar información sobre la distribución de propiedades físicas y químicas en el mar (temperatura, salinidad, etc.), geología, meteorología y biología marina.

En tierra, los mapas topográficos son utilizados por todas las naciones para revelar la elevación de las distintas zonas. La elevación promedio de los Estados Unidos, exceptuando Alaska y Hawaii, es de unos 700 m sobre el nivel del mar. Un mapa topográfico es un registro detallado de la topografía de una zona terrestre, con posiciones geográficas y elevación de los rasgos naturales o hechos por el hombre. Por medio de las líneas de contorno y otros símbolos, los mapas topográficos muestran la forma de la Tierra (las montañas, valles y llanuras) en su forma mensurable. Muestran la red de cursos de agua y de ríos y otros rasgos acuáticos en su verdadera relación
con la Tierra, y las principales obras del hombre en su tamaño relativo y verdadera posición.

Cosa sorprendente, sólo una pequeña porción de la superficie terrestre ha sido cartografiada hasta el grado de exactitud requerido hoy con propósitos industriales, militares, científicos y recreativos. (Sólo un 40 % de la superficie de los Estados Unidos está cubierta por mapas topográficos.)

Los mapas geológicos, que emplean un mapa topográfico como base, revelan qué clase de rocas existen dentro de un país. Los geólogos entrecruzan la Tierra, examinando formaciones rocosas de su superficie y haciendo proyecciones estudiadas de las del subsuelo.Los mapas geológicos son vitales para determinar la localización, profundidad y dimensiones de valiosas masas rocosas tales como las piedras de construcción o las vetas de mineral.

Hoy se hace un creciente uso de la «fotogeología», fotografía aérea y orbital (espacio) para identificar y cartografiar las formaciones geológicas, ciertas características del agua y las fallas terrestres, indicando dónde se pueden producir terremotos. Los aparatos muy sensibles instalados en los aviones, o los satélites que orbitan la Tierra, pueden detectar diferencias de temperatura en varios tipos de formaciones rocosas. La cartografía geológica desempeña un papel vital en determinar dónde están colocadas las estructuras (y cómo son diseñadas, construidas y mantenidas) analizando las rocas y suelos que los rodean.

Los terremotos, inundaciones y otros desastres, pueden hacer que un mapa quede anticuado. La naturaleza puede causar cambios en una costa, requiriendo revisiones para hacer que los mapas usados corrientemente sean exactos.
Los mapas revelan mucho a una nación sobre el mundo que la rodea, como el hecho poco conocido de que la costa occidental de Alaska está a menos de 50 millas de la Unión Soviética.