Concepto de Calor

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Orígenes de la Ciencia Moderna y La Filosofía Renacentista

Orígenes de la Ciencia Moderna: Filósofos y Científicos

Si la primera parte del siglo XVII es un período de crisis en todos los campos, crisis que prolongan las conmociones del Renacimiento, en la segunda mitad del siglo se proyectan las tentativas de solución.

A la anarquía, a las luchas políticas y sociales, responde el ideal absolutista, el cual alcanza la perfección histórica con Luis XIV, que inspira tanto a los soberanos españoles como a los Estuardo, al emperador como a los pequeños príncipes alemanes.

Al caos y la confusión, nacidos de las ruinas del viejo sistema aristotélico como consecuencia de los trabajos y las investigaciones de Bacon y Galileo, se opone la tentativa de Descartes, buscando un nuevo método científico para elaborar una doctrina racional de conjunto del universo.

El ser humano siempre quiso saber qué ocurrió al principio de todo y, en consecuencia, no tuvo reparo en intentar ver más allá para encontrar la luz. Fue el italiano Galileo Galilei (1564-1642) quien preparó el camino de la ciencia moderna y supo convertir el catalejo del holandés Hans Lippershey (1570-1619) en un telescopio refractor para la observación de los cuerpos celestes en 1609, justo el mismo año en que el astrónomo alemán Johannes Kepler (1571-1630) presentaba sus primeras dos leyes del movimiento elíptico planetario en el libro Astronomía nova.

El físico y matemático inglés Isaac Newton (1642-1727), inventor del primer telescopio de reflexión en 1668, sentó las bases de la ciencia moderna con sus descubrimientos en óptica clásica (la naturaleza de la luz blanca o luz del Sol por medio de un prisma de cristal) y la mecánica clásica (la formulación de las tres leyes del movimiento y la ley de la gravitación universal). Además desarrolló el cálculo infinitesimal en el campo de la matemática pura.

Ya en la segunda década del siglo XX, el físico alemán Albert Einstein revolucionó el sistema del mundo newtoniano con la teoría general de la relatividad y dos predicciones fundamentales: la curvatura del espacio-tiempo alrededor de un cuerpo y el llamado efecto de arrastre de marco, por el que la Tierra, en su rotación, curva el espacio-tiempo. Poco después, el universo fue visto como un todo en expansión gracias a la teoría del Big Bang o Gran Explosión, que se ha establecido como la teoría cosmológica más aceptada.

En filosofía Descartes se lo considera como fundador de la filosofía moderna, quien tendrá una gran influencia después de su muerte (1650). A la copiosidad barroca del arte durante este período de transición, el clasicismo quiere imponer las reglas universales del buen gusto y de la mesura.

En todos los aspectos, tanto en el orden económico, con el mercantilismo estatal, como en el orden militar, en el que los ejércitos disciplinados por la monarquía absoluta quieren reemplazar a las bandas de mercenarios y a los condottieros, todavía dominantes en el trascurso de la Guerra de los Treinta Años, se pueden discernir los esfuerzos hacia el orden y la estabilización.

El triunfo no será más que aparente: detrás de las armoniosas fachadas clásicas y las magnificencias del arte oficial, aparecen, desde finales del siglo, otras crisis, otras con tradicciones que anuncian el período revolucionario de la «Ilustración».

DESCARTES Y EL FUNDAMENTO DEL RACIONALISMO
Renato (René) Descartes (1596-1650) pertenecía a la pequeña nobleza; después de haber cursado sólidos estudios eligió la carrera de oficial del ejército, sirviendo primeramente en Holanda, bajo las órdenes de Mauricio de Orange, y en Baviera, al comienzo de la Guerra de los Treinta Años.

No cesaba de meditar y trabajar en las matemáticas; en Alemania, en un cuchitril al lado de una estufa, tuvo la célebre «iluminación» que le reveló las ideas directrices de su filosofía. Después de una permanencia en Italia, se estableció en Holanda (1629), donde el pensamiento   podía   desenvolverse   más   libremente. Residió allí veinte años, interrumpidos por breves estancias en Francia, enteramente   consagrados   a   la   ciencia   y   a   la filosofía.

Filósofo René Descartes

 En el año 1637 apareció el «Discurso del Método», escrito en francés y no en latín como era costumbre en la época para este género de obras. Rápidamente célebre, admirado por la princesa Isabel, hija del Elector Palatino, fue invitado a Estocolmo por la reina Cristina, la cual le exigía que se levantara todos los días a las cinco de la mañana para enseñarle filosofía.  ¡Su actividad de reina no le debaja libre otros momentos! El duro clima sueco fue la causa de la pulmonía que llevó a la tumba a Descartes   a  los  cincuenta  y  cuatro  años.

Trató de sistematizar todos los conocimientos de su tiempo, de crear una ciencia universal explicando los fenómenos de la naturaleza por medio del razonamiento matemático. Sabio en todo, hizo investigaciones de óptica, creó la geometría analítica, se interesó por la fisiología.

Su método comenzó por la duda radical, la «tabla rasa» de las ideas recibidas, la repulsa del principio de autoridad, para comenzar a partir de la primera certeza resumida en la célebre fórmula: «Pienso, luego existo». Se ajusta a cuatro reglas esenciales:

1)no aceptar nunca, más que ideas claras y distintas, que la razón tenga por verdaderas;

2)dividir las dificultades en tantas partes como sean necesarias para resolverlas (análisis);

3)partir de lo simple para, llegar a lo complejo (síntesis);

4)examinar todo por completo para estar seguro de no omitir nada.

No es cuestión de examinar aquí al detalle una obra que aborda los problemas universales de las ciencias y de la filosofía. A pesar de que Descartes intentó demostrar que las ideas de perfección y de infinito no pudieron ser puestas en el hombre, imperfecto y limitado, más que por Dios, sus explicaciones rigurosamente deterministas del universo, del hombre y de sus pasiones, podían excluir la divinidad y por ello rápidamente se hizo sospechoso (a pesar del entusiasmo de Bossuet) a los ojos de ciertos teólogos.

Y es verdad que inspiró directamente a los materialistas del siglo siguiente. Pascal lo vio muy claro cuando escribió en sus «Pensamientos»: «No puedo perdonar a Descartes; hubiera querido poder prescindir de Dios en toda su filosofía; pero no pudo evitar hacerle dar un papirotazo, para poner al mundo en movimiento. Después de esto, Dios no sirve para nada».

Los contemporáneos se apasionaron por sus teorías sobre el pensamiento y la extensión, los torbellinos, la materia sutil, los animales-máquinas, etc… Por su tentativa de reconstrucción total de las leyes del universo, basándose en algunos principios, se ligaba al espíritu de ordenación del absolutismo. Por su método, principalmente la duda sistemática, abría el camino al pensamiento libre, aunque se defendía siempre de ser ateo. El cartesianismo iba a tener importantes derivaciones.

SPINOZA Y LEIBNIZ Entre los espíritus cultivados se mantenía numeroso contacos , por medio de los libros, viajes y las correspondencias. La lengua  francesa  se extendía  y  sustituía  al latín como lengua erudita, y las Provincias Unidas  eran  un punto  de  confluencia  de ideas.

Los grandes centros intelectuales se desplazaban:  primero fue Italia,  hasta comienzos del siglo xvn, después Francia, y, al final del siglo, los Países Bajos e Inglaterra, donde Newton y Locke iban a coronar los  progresos científicos  y filosóficos.

Las ciudades holandesas que habían albergado a Descartes, con sus universidades, sus imprentas, su burguesía mercantil activa y cosmopolita, y su liberalismo, eran favorables a la floración de las nuevas ideas. En Amsterdam   nació   Spinoza (1632-1677), descendiente de judíos portugueses emigrados. La audacia y la originalidad de su pensamiento, influido por Descartes, le indispuso con  su  ambiente  tradicional (su padre quería hacerle rabino), siendo arrojado de la sinagoga.

Excluido del judaísmo, quedó desde entonces libre e independiente, rechazando las cátedras de la universidad, porque temía verse obligado a abdicar de su independencia; prefería ganarse la vida en La Haya puliendo lentes. En este caso tampoco podemos dar más que una breve reseña de su filosofía, expuesta en varias obras (entre ellas el «Tratado teológico político» y la «Etica»). Siendo, a su manera, un místico panteísta, rechazaba toda religión revelada y denunciaba las incoherencias y las contradicciones del Antiguo Testamento, el cual, según él, no había sido dictado por Dios, sino hecho por judíos deseosos de mostrar su historia y su religión bajo cierto aspecto, en relación con las necesidades históricas.

Lo mismo que Descartes, intentó dar, sin dejar de criticar los puntos de su teoría, una vasta explicación del mundo basada en la mecánica y las matemáticas, obedeciendo a una rigurosa lógica de las leyes de la necesidad, en la que asimilaba a Dios con la sustancia infinita, con la Naturaleza. Negaba la existencia de un Dios personal y del libre albedrío. «Nosotros creemos ser libres porque ignoramos las cosas que nos gobiernan. Si se pudiera tener una idea absoluta del orden general que rige la Naturaleza, se comprobaría que cada cosa es tan necesaria como cada principio matemático».

Quería analizar las pasiones y los sentimientos «como si se tratara de líneas, de superficies, de volúmenes».

Alemania produjo otro gran genio en la persona de Leibniz (1646-1716), nacido en Leipzig, agregado al servicio del Elector de Maguncia y después al del duque de Hannover. Pasó cerca de cuatro años en París, donde trató de disuadir a Luis XIV de intervenir en Alemania. Independientemente de Newton, inventó el cálculo infinitesimal (1684).

Su compleja filosofía está basada en la teoría de las «mónadas», elementos, átomos de las cosas, todas diferentes, creadas por Dios, que es la mónada suprema y quien ha regulado el universo dentro de una armonía preestablecida, agrupando las cadenas infinitas de las mónadas y su movimiento. Diferentes, incompletos, frecuentemente contradictorios, rebasados hoy, pero llenos de intuiciones geniales, todos estos sistemas tienen un punto común: una explicación total, rigurosa, científica, de la Naturaleza y de sus fenómenos, de Dios, de la sustancia, del alma, etc..

En un siglo, los progresos son considerables: el pensamiento humano no se inclina ya ante los dogmas y las tradiciones recibidas, sino que busca libremente por medio de su crítica descubrir las leyes que rigen el universo, como ya lo habían intentado los grandes filósofos griegos.

PRINCIPIOS DE LA CIENCIA MODERNA
Muchos pensadores eran, al mismo tiempo que sabios, matemáticos notables. Paralelamente a su obra filosófica y religiosa, Blas Pascal (1623-1662) establecía las bases del cálculo de probabilidades, demostraba la densidad del aire según las hipótesis de Galileo y de Torricelli, inventaba el barómetro, exponía las propiedades del vacío y de los fluidos, así como las de las curvas.

Otros investigadores, igualmente científicos, profundizaron en los descubrimientos hechos a comienzos del siglo: en medicina, después del inglés Harvey, médico de los Estuardo (muerto en 1657), que había construido una teoría revolucionaria sobre la circulación de la sangre y el papel del corazón, el bolones Malpighi (1628-1694), gracias a los progresos del microscopio, analizaba el hígado, los ríñones, los corpúsculos del gusto, las redecillas de las arteriolas, y comenzaba el estudio de la estructura de los insectos.

El holandés Leuwenhoek descubría los erpermatozoides y los glóbulos rojos de la sangre. Los dos chocaban todavía con los prejuicios tenaces de las universidades, en las que reinaba el aristotelismo que había rechazado los descubrimientos de Harvey. Moliere, en su «Enfermo Imaginario», hará, por otra parte, una cruel sátira de los médicos retrógrados.

cientifico del renacimiento

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

El mundo de lo infinitamente pequeño comienza a entreabrirse, aunque aún no sean más que tanteos en química y fisiología. Redi, médico del gran duque de Toscana, abordaba el problema de la «generación espontánea». Suponía que los gusanos no nacen «espontáneamente» de un trozo de carne en descomposición, sino de huevos que ponen moscas e insectos.

Sin embargo, la mayoría de la gente creía todavía en esta generación animal o vegetal, partiendo de pequeños elementos reunidos. El mismo Redi descubría las bolsas de veneno de la víbora, pero otros aseguraban que el envenenamiento era producido por los «espíritus animales» de la víbora que penetraban en la llaga hecha por la mordedura.

La ciencia comenzaba también a ocuparse de las máquinas: Pascal, Leibniz construían las primeras máquinas de calcular. Cristian Huygens (1629-1695) aplicaba a los relojes el movimiento del péndulo. Miembro de la Academia de Ciencias de París, pensionado por Luis XIV, tuvo que regresar a Holanda, su país natal, después de la Revocación del Edicto de Nantes.

Realizó importantes trabajos matemáticos, estudió la luz, presintió su estructura ondulatoria, desempeñó un papel decisivo en astronomía, tallando y puliendo los cristales de grandes lentes, lo que le permitió descubrir un satélite de Saturno, la nebulosa de Orion, así como el anillo de Saturno. Su ayudante, Dionisio Papin construyó la primera máquina de vapor en la que un émbolo se movía dentro de un cilindro (1687). Los ingleses iban a sacar aplicaciones prácticas para extraer el agua de las minas por medio de bombas. Por último, a finales de siglo, Newton formulaba las leyes de la gravitación universal.

“DIOS DIJO: HÁGASE NEWTON Y LA LUZ SE HIZO”

Esta cita del poeta Alexandre Pope muestra bien claro el entusiasmo que levantó el sistema de Newton, publicado en 1687 con el nombre de Philosophiae Naturalis Principia Mathematica. Isaac Newton (1642-1727), alumno y después profesor de matemáticas de la Universidad de Cambridge, terminó su carrera como «inspector de Monedas» y presidente de la Real Sociedad; fue también miembro del Parlamento.

físico ingles Newton

Isaac Newton

A la edad de veintitrés años lanzó las bases del cálculo diferencial, necesario para investigaciones profundas y mejoró su técnica, mientras que Leibniz llegaba a los mismos resultados por un método diferente. Los dos sabios fueron mutuamente acusados de plagio, a pesar de que sus investigaciones eran independientes aunque casi simultáneas.

Las anotaciones de Leibniz eran, por lo demás, más eficaces y los franceses las adoptaron. La invención del cálculo diferencial  e  integral que se funda en la acumulación de las diferencias infinitamente pequeñas, había de permitir resolver los problemas que planteaban las matemáticas del espacio, con sus cambios de tiempo, de lugar, de masa, de velocidad, etc.. Newton se dedicó entonces a estudiar las cuestiones que sus predecesores habían dejado sin solución: ¿por qué los astros describen curvas en lugar de desplazarse según un movimiento rectilíneo? Se dice que fue la caída de una manzana lo que puso en marcha los mecanismos de su reflexión.

Necesitó veinte años para dar las pruebas de sus teorías sobre el movimiento y la gravitación universal, las cuales iban a ser unánimemente admitidas hasta Einstein.

Albert Eisntein

En el espacio vacío, los cuerpos ejercen una atracción mutua; la fuerza de atracción es tanto mayor cuanto menor es la distancia entre dos cuerpos y mayor la masa del cuerpo que ejerce la atracción, o, dicho de otro modo, esta fuerza es directamente proporcional al producto de las  masas  e  inversamente proporcional  al cuadrado de las distancias. Newton extendía a todo el universo los fenómenos que entonces se creían reservados a la Tierra, siendo el cielo teatro de misterios inaccesibles, como lo creía la Edad Media.

Obtuvo una formulación matemática, gracias al cálculo infinitesimal, y consiguió una comprobación en el estudio del movimiento y de la velocidad de la Luna. Estableció, igualmente, que a cada acción se opone igual reacción. Las teorías de Newton chocan con las de Descartes, el cual explicaba la interacción de los astros por medio de los famosos «torbellinos» que agitaban continuamente la «materia sutil» continua, en la que flotaban los cuerpos. A la publicación de «Principia» siguieron numerosas polémicas.

Los cartesianos afirmaban que este principio de atracción era un retroceso a las «cualidades» ocultas de Aristóteles y, a pesar de los argumentos newtonianos, que demostraban la imposibilidad de concebir el espacio celeste lleno de materia, incluso siendo muy fluida, se continuó negando durante largo tiempo la teoría de la gravitación, como lo hicieron Huygens, Leibniz, Fontenelle, Cassini, Réaumur y otros, hasta la confirmación cada vez más brillante que aportaron las experiencias en el transcurso del siglo XVIII. Newton aplicó también su genio al estudio de la luz, explicando por qué los rayos del sol se descomponen en diferentes colores a través de un prisma. Al margen del análisis espectral, hizo numerosos descubrimientos ópticos.

La fe de Newton permaneció viva. Su sistema no eliminaba la exigencia de una causa primera, de un agente todopoderoso «capaz de mover a su voluntad los cuerpos en su sensorium uniforme e infinito para formar y reformar las partes del universo». La ciencia aceptaba a Dios, que debía crear ininterrumpidamente el movimiento, sin el cual todo se pararía poco a poco por degradación de la enegría. Newton murió a la edad de ochenta y cuatro años, rodeado de inmenso respeto, después de haber abierto un campo ilimitado a los descubrimientos de física y matemáticas.
Fuente Consultada:
Enciclopedia de Historia Universal HISTORAMA Tomo VII La Gran Aventura del Hombre

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Calor Producido Por la Corriente Electrica Aplicaciones

U na coméate eléctrica se asemeja a una caravana de electrones; en movimiento; el conductor sería como un bosque contra cuyos árboles chocarían los electrones al “recorrerlo produciendo una agitación general. Los: “árboles” son en este caso átomos o moléculas dei conductor y el movimiento que nace del choque con los electrones se traduce en un aumento de las vibraciones habituales de los átomos y moléculas.

Dichas oscilaciones se perciben como temperatura. De ahí que él calor sea uno de los efectos invariables de la corriente eléctrica al pasar por un conductor. Podemos decir también que ese calor se produce al tratar la corriente de superar la resistencia del conductor.

RESISTENCIA
La resistencia de una sustancia es la dificultad que ofrece al paso de una corriente eléctrica. Puesto que una corriente es un flujo de electrones que saltan de un átomo a otro, la resistencia depende fundamentalmente de la firmeza con que los electrones están sujetos a los átomos.

En un buen conductor como el cobre, algunos de los electrones están muy débilmente unidos a los átomos y ía resistencia es muy pequeña, mientras que en un mal conductor de la electricidad (aislador) como el caucho, todos los electrones están firmemente unidos a sus respectivos núcleos y la resistencia es muy grande.

En los buenos conductores la resistencia depende del calibre y de la longitud. Cuanto más grueso y corto sea un conductor, tanto menor será su resistencia; cuanto más fino y largo, más resistirá al paso de la corriente, pues al reducirse su sección los electrones tienen menos espacio para pasar.

CONDUCTIBILIDAD Y  NATURALEZA QUÍMICA
Hay dos tipos de sustancias: las que conducen la corriente, llamadas “conductoras”, y las que.no la conducen o “aisladoras”. Pero entre las primeras se distinguen dos clases: conductores de primera clase y conductores de segunda clase.

Entre los de primera clase se encuentran los metales, cuya estructura química no varía por el paso de la corriente eléctrica; en ellas los electrones “viajan” solos. Los de segunda clase son los electrólitos, sustancias cuyas moléculas disueltas en agua se separan en iones o partículas electrizadas que al conducir la corriente (en solución o fundidos) sufren reacciones “electrolíticas” que alteran su constitución.

En estas sustancias los electrones son transportados por los iones hasta los bornes o “electrodos”. De allí la disociación de los electrólitos al apartarse los iones de cargas eléctricas opuestas.

EL CALOR,  FORMA DE ENERGÍA
Veamos qué relación hay entre calor y trabajo. El calor es una forma de energía o capacidad de realizar un trabajo que consiste en vencer una cierta resistencia. Las distintas formas de energía pueden transformarse unas en otras. Por ejemplo, un cuerpo colocado a cierta altura posee energía “potencial” que, al caer el cuerpo, se transforma gradualmente en “cinética”.

Al caer contra el suelo produce una pequeña cantidad de calor, como el martillo al dar contra el clavo. La energía se conserva (éste es un principio fundamental de la Física): en el ejemplo de la caída a medida que la energía potencial disminuye, la energía cinética o de movimiento aumenta  y  la  suma de  ambas permanece  constante.

EL TRABAJO MECÁNICO
Cuando una fuerza mueve un cuerpo efectúa un trabajo mecánico (en nuestro ejemplo, la fuerza que actúa es el peso del cuerpo) y ese trabajo es igual al producto de la fuerza por el camino recorrido en su dirección, es decir, por una longitud.

De modo que si queremos expresar el trabajo en unidades, la unidad de trabajo será igual a la unidad de fuerza multiplicada por la unidad de longitud. La unidad de fuerza se llama dina (en el sistema de medidas cuyas unidades fundamentales son el centímetro, el gramo-masa y el segundo, llamado por eso “sistema cg.s.”).

La dina es la fuerza que aplicada al gramo-masa le comunica una aceleración de 1 centímetro por segundo a cada segundo. La unidad de longitud es el centímetro. Pero como la dina es una unidad muy pequeña, el trabajo de una dina a lo largo de 1 centímetro es una unidad diminuta, llamada ergio. Por eso se usa como unidad otra de diez millones de ergios, denominada julio (o joule).

EQUIVALENTE MECÁNICO DEL CALOR
En numerosas experiencias se comprueba que a la realización de un trabajo corresponde la aparición de una cantidad de calor. Por ejemplo, cuando usamos un inflador de bicicleta comprimimos un gas (el aire) y notamos que el tubo metálico se calienta.

Si se ha convertido un trabajo T en una cantidad de calor Q que verifica que T= J x Q, esa “J” es una cantidad constante que permite calcular la reciprocidad entre joules y calorías y se llama equivalente mecánico del calor.

Su valor es 4,18 (1 caloría equivale a 4,18 joules) y lo descubrió el gran sabio inglés James Joule (1818-1889) quien también enunció una sencilla fórmula que permite conocer la cantidad de calor producida poruña corriente eléctrica.

CORRIENTE  ELÉCTRICA Y CALOR
Para abreviar sus fórmulas, los físicos representan las magnitudes por letras, que son generalmente las iniciales de la palabra o la unidad que expresan. “T” significa “trabajo”, medido en joules. “I” significa  “intensidad de la corriente”, medida en  amperios. R significa “resistencia” del circuito, medida en ohmios. “t”  significa  “tiempo”,  medido en  segundos. “V” significa “voltaje”, medido en  voltios.

El   trabajo   realizado   por  una   corriente   eléctrica depende del voltaje, de la intensidad de la corriente y, naturalmente, del tiempo transcurrido, o sea T = V x I x t que ue se expresa T = V .I. t (1) pues los signos de multiplicación (.) se sobreentienden.

Pero según la ley de Ohm: volt = ohmio x amperio,… ósea V = R x I

Al reemplazar “V” por su valor I x R en la fórmula anterior tenemos: T=R x I x l x t  ósea, T = R. I². t (2)

En otros términos, el trabajo  que efectúa una corriente eléctrica es, medido en joules, el resultado de multiplicar la resistencia del circuito en ohmios por el cuadrado de la intensidad en amperios y por los segundos de tiempo transcurrido.

El trabajo se obtiene en joules. Para transformarlo en calorías (una pequeña caloría es la cantidad de calor necesaria para elevar en un grado centígrado la temperatura de un gramo de agua) basta dividir por 4,18 ya que 4,18 julios equivalen a una pequeña caloría.

De modo que conociendo esta relación podemos saber con exactitud cuánto calor produce una corriente. Pero ignoraremos aún cuánta energía   útil  se  produce porque  ésta  depende  de nuestro  designio y siempre  se  gasta  una  parte  de esa energía en fenómenos colaterales indeseables.

CÓMO SE  APROVECHA   EL  EFECTO  CALÓRICO DE LA ELECTRICIDAD
En casi todos los artefactos eléctricos que producen calor o luz se emplean hilos metálicos de muy pequeño calibre y gran longitud, o que por su naturaleza oponen mucha dificultad al paso de la corriente. Estos hilos, arrollados en espiral, se llaman resistencias y logran un rendimiento próximo al 100 % al transformar la energía eléctrica en calor (no en luz).

Otro sistema basado en el mismo principio es el arco eléctrico, donde el hilo metálico es reemplazado por dos electrodos de carbón que también constituyen una resistencia. El arco se forma merced a los vapores de carbón incandescente y se logran temperaturas muy elevadas (unos 3.600°C). Hay otros métodos de producir calor y que sólo mencionaremos. Mediante corrientes alternas de alta frecuencia es posible calentar en todo su espesor sustancias no conductoras (aisladoras llamadas también “dieléctricos”)   por  el   sacudimiento   que   el  campo eléctrico produce en su masa.

Se logra un calentamiento muy uniforme, aprovechable en ciertas industrias (plásticos). Otro método es el calentamiento por inducción en el que se utiliza un campo electromagnético variable (ya hemos visto la relación entre electricidad y magnetismo). También se logra un calentamiento muy uniforme. Pero en estos dos métodos el rendimiento es muy inferior al ciento por ciento.

RESISTIVIDAD Y RESISTENCIA
La resistencia total de un circuito depende, además de su longitud y calibre, de la resistencia especifica o resistividad de la sustancia que lo constituye, y que indicaremos por la letra “r”.

La fórmula se obtiene así: la resistencia R del circuito es tanto más grande cuanto mayor es su longitud “l” y la resistividad “r” del material que lo compone. Por otra parte R es tanto más pequeño cuanto mayor es la sección “s” del conductor.

En resumen, R es igual a la resistividad multiplicada por la longitud y dividida por la sección del conductor, o sea: R = r.l/s

Esta fórmula guía a ios ingenieros en la elección de la sustancia conductora apropiada a cada caso, pues la resistividad “r” es característica de cada material, y hay tablas para conocerlas. Generalmente aumenta con la temperatura (excepto en los semiconductores, el carbón y otras sustancias o mezclas).

Ejemplo: Un calentador electrico para 220 Volt, tiene una resistencia  de 80 Ohmios. Calcular la cantidad de calor T que produce este calentador en 2 minutos.

Antiguo Calentador Eléctrico

Sabemos que: T = R. I². t

La corriente I la obtenemos de la ley de Ohm: I=V/R=220/80=2,75 Amperios

Entonces: T=80. (2.75)². 120 seg.=72.600 Joules y multiplicado por 0,24 lo pasamos a calorias: 17.224 cal.

LÁMPARAS ELÉCTRICAS DE FILAMENTO
Las aplicaciones prácticas del efecto térmico de la corriente son muy numerosas. Una de las más importantes es la lámpara eléctrica. Ésta se compone de un largo y fino filamento de tungsteno que ofrece una considerable resistencia al paso de la corriente (el filamento puede tener hasta 60 centímetros de largo aunque está arrollado en una espiral de menos de 2,5 centímetros de longitud).

La fórmula de Joule nos dice que cuanto mayor sea la resistencia del hilo conductor, mayor es el calor producido. En este caso, debido al escaso calibre y gran longitud, se produce suficiente calor como para que que el tungsteno se vuelva incandescente y emita una luz casi blanca. Aunque ahora parezca simple, los primeros intentos para hallar un filamento adecuado fueron penosos.

Thomas Alva Edison, el inventor americano de la primera lámpara eléctrica útil (1879) empleó hilos de bambú carbonizado y evitó que ardieran haciendo el vacío dentro de la lámpara, es decir, retirando el oxígeno necesario para la combustión. Luego se recurrió al filamento de tungsteno pero el metal se vaporizaba gradualmente y depositábase en una capa negruzca en la pared de vidrio. Para impedirlo, la mayoría de las lámparas actuales están llenas de un gas inerte como el argón, que no reacciona   con   el  metal   y  evita su   vaporización.

ESTUFAS ELÉCTRICAS
Las estufas eléctricas se componen también de un alambre arrollado en espiral que se calienta al rojo cuando pasa la corriente; entonces el hilo conductor no sólo caldea el aire sino que emite rayos caloríficos. El filamento se arrolla sobre un soporte de material no conductor y refractario para que soporte temperaturas bastante altas. Generalmente se usa mica o materiales cerámicos.

El metal de la resistencia es una aleación, por lo general de níquel y cromo. La mayoría de los otros metales se oxidarían (combinación con el oxígeno del aire) y se quemarían muy rápidamente. Existen calentadores llamados de inmersión porque se colocan dentro del agua que se desea calentar, construidos en forma similar a las estufas; su filamento queda  aislado  del  agua  por una  cápsula  metálica  hermética.

FUSIBLES
Los fusibles usados para proteger circuitos eléctricos, representan otra útil aplicación del efecto calórico de la electricidad. Si, por alguna razón, pasa por ellos una corriente más intensa que la prevista se calientan excesivamente y se derriten. Evitan así que el contacto fortuito entre dos cables desnudos, que permite a la corriente utilizar un camino más corto y fácil (de allí viene el nombre de “cortocircuito”) sobrepase la capacidad prevista para el circuito  y pueda provocar un desastre.

El alambre de un fusible se compone de un metal o aleación de bajo punto dé fusión. Si una corriente demasiado intensa recorre el circuito engendra suficiente calor como para fundir el alambre del fusible. Esto corta el  circuito  y se  evitan  serios daños.

El fusible es un simple trozo de alambre fino cuya temperatura de fusión es muy inferior a la del resto del circuito. Se lo intercala de modo que toda la corriente deba pasar por él, y si la intensidad de ésta sobrepasa cierto límite el alambre del fusible se calienta hasta fundir, interrumpiendo el circuito.

HORNOS  ELÉCTRICOS
Otra aplicación importante son los hornos eléctricos. Existen dos tipos: el horno de resistencia que funciona como las estufas domésticas aunque en mayor escala y el horno de arco que se base en el arco eléctrico ya mencionado. Se utiliza la formación de chispas entre los dos electrodos mantenidos a corta distancia y la gran cantidad de calor producida se debe a la resistencia que ofrece el aire al paso de corriente por ser mal conductor.

Estos hornos de arco se usan para fundir metales y en algunos el metal se funde por el calor de dos electrodos de carbón puestos por encima del metal. En otros el mismo metal sirve de electrodo mientras que el otro es de carbono y se funde por el calor del arco.

PLANCHA ELECTRICA: Idem al caso anterior, utiliza calor generado por una resistencia a partir de la corriente eléctrica. las amas de casa todavía no no la podían utilizar ya que no existía la conexion a la red eléctrica y no se había inventado aun el termostato. El calor se producía en una resistencia colocada en el interior de la plancha que con el paso de la corriente eléctrica se calentaba por el efecto Joule.

Esto consiste en que la circulación de corriente eléctrica por la resistencia, desprende mas o menos cantidad de calor dependiendo de tres factores: el valor del cuadrado de la intensidad, la resistencia y el tiempo de funcionamiento del aparato eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°14 Enciclopedia de la Ciencia y La Tecnología – Ciencia: La Electricidad-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Amianto Aplicaciones, Propiedades y Riesgos de Cancer

El amianto o asbesto es conocido por el hombre desde hace por lo menos 2.500 años. A causa de su singular resistencia al fuego, se atribuían a esta sustancia propiedades mágicas. Se dice que el emperador Carlomagno demostró sus poderes sobrenaturales arrojando al fuego un mantel de amianto que recuperó intacto. La resistencia al fuego es la propiedad que más llamaba la atención de los antiguos, pero no es la única cualidad del amianto, que ha probado ser enormemente apto en aplicaciones industriales.

Es un excelente aislante del calor, del sonido y de la electricidad, y su naturaleza fibrosa permite que se pueda trabajar para elaborar telas para trajes, etc. Mezclado con otros materiales como el cemento proporciona un excelente material de construcción. El amianto es flexible, resistente a los ácidos y a los álcalis y no se deteriora  con el  tiempo.

Amianto

Hablar solamente de “amianto” no es precisar mucho, pues el amianto no es una sustancia única. Hay muchas variedades de él, y cada variedad posee en distinto grado las propiedades ya indicadas.

El valor comercial del amianto depende grandemente de dos cualidades: su incombustibilidad y su singular estructura fibrosa. La última permite separarle en fibras o filamentos que, en la variedad usada con más frecuencia, poseen una gran resistencia a la tracción y son muy flexibles.

Podemos decir que las principales propiedades del amianto son:

Incombustibilidad.
Elevado aislamiento térmico.
Elevado aislamiento acústico.
Resistencia a altas temperaturas.
Resistencia al paso de electricidad.
Resistencia a la abración.
Resistencia al ataque de microorganismos.

Debido a estas especiales características, el amianto se ha usado para una gran variedad de productos manufacturados, principalmente en materiales de construcción (tejas para recubrimiento de tejados, baldosas y azulejos, productos de papel y productos de cemento con asbesto), productos de fricción (embrague de automóviles, frenos, componentes de la transmisión), materias textiles termo-resistentes, envases, paquetería y revestimientos, equipos de protección individual, pinturas, productos de vermiculita o de talco. El amianto también está presente en algunos alimentos.

YACIMIENTO Y ORIGEN
El amianto, tal como se encuentra en la naturaleza, es una roca, tan sólida y densa como el granito. Se encuentra subterráneamente en vetas delgadas, incluidas en rocas que tienen una composición química parecida.

Incluso hoy día no hay una idea clara de cómo el amianto se formó en la corteza terrestre. La teoría más generalizada es la de que la roca subterránea se transformó por la acción del agua caliente, que contenía sales disueltas y anhídrido carbónico. Al producirse grietas en la roca, éstas se llenaron de agua, y, durante largos períodos de tiempo, ocurrieron reacciones químicas, que dieron lugar a capas gelatinosas que eventualmente cristalizaron para formar el mineral, fibroso y estrechamente empaquetado, que hoy día conocemos.

VARIEDADES   DE   AMIANTO
El nombre de amianto, en una acepción amplia, puede darse a todo mineral natural capaz de ser manejado o transformado en fibras. Hay, por lo menos, treinta tipos distintos de minerales que forman lo que se llama el grupo asbestiforme, y que tienen grandes semejanzas, pero solamente seis poseen importancia comercial.

En orden de importancia, son:   el crisotilo  o  amianto blanco,  la crocidolita o amianto azul, la amosita, antofilita, tremolita y actinolita. Se dividen en dos grupos principales: los amiantos de crisotilo (o serpentina) y los amiantos anfibólicos.

Las diferencias entre los distintos tipos provienen de la roca o matriz donde el amianto se encuentra. Desde el punto de vista químico, son complicados silicatos de magnesio que, generalmente, contienen uno o varios de los siguientes metales: sodio, aluminio, hierro y calcio.

CRISOTILO
Es la variedad más importante de mineral de amianto, y constituye el 80 ó 90 por ciento de la producción mundial. Se encuentra principalmente en Canadá, en la U.R.S.S. y en Rodesia del Sur. Su color varía desde el blanco puro hasta el verde grisáceo, dependiendo de las impurezas que contenga.

El crisotilo no se altera a temperaturas de hasta 450 ó 500 °C, en que empieza a perder agua estructural. Sus fibras resisten la acción de los álcalis, pero no la de los ácidos, y los ácidos minerales  fuertes  las  disuelven  completamente.

Crisolito o Amianto Blanco

Algunas fibras de crisotilo tienen hasta ocho centímetros de longitud, aunque la mayoría están por debajo de los cuatro centímetros. Son fuertes y flexibles, trabajándose con facilidad, probablemente a causa de las cantidades de talco que se encuentran en ellas.

Estas propiedades, juntamente con su resistencia, longitud, y mala conductividad eléctrica (gran resistencia al paso de la corriente), lo hacen muy adecuado para la manufactura de amianto textil. Cuando se muele la roca, el amianto se descompone en fibras, y la parte de roca adyacente se pulveriza.

De esta forma, ambos se separan fácilmente. Frotando la superficie de la roca, pueden obtenerse fibras extremadamente finas, que, de hecho, son haces de fibras todavía más finas, las cuales pueden separarse a mano. Incluso esas fibras pueden subdividirse a su vez.

Con el microscopio electrónico han podido medirse los diámetros de las fibras más finas, que son del orden de dos millonésimas a veinte millonésimas de centímetro. Las fibras que se usan en la práctica son mucho  más  gruesas.

Los  estudios  modernos  con  el  microscopio electrónico sugieren que. las fibras de crisotilo son huecas, a pesar de que los tubos pueden estar rellenos de material menos cristalino, pero con la misma composición química. Esto serviría de explicación al hecho de que las fibras sean suaves, elásticas y absorbentes. Su resistencia a la tensión es muy grande; por término medio, del orden de la de una cuerda de acero para piano del mismo diámetro, aunque se han obtenido valores de resistencia doble.

AMIANTOS ANFIBÓLICOS
Los amiantos que derivan de este grupo se diferencian de los del crisotilo por su mayor riqueza en sílice, hierro, aluminio, sodio y calcio. Sin embargo, contienen menos magnesio. Cada uno de ellos incluye dos o más de esos metales en diferentes proporciones. La crocidolita, que tiene un color azul peculiar, y la amosita, que varía desde el blanco al pardo amarillento, son las variedades más importantes. Ambos son silicatos de hierro; el primero contiene dos tipos de hierro y sodio, y el segundo, hierro ferroso y magnesio.

La crocidolita posee magníficas propiedades de resistencia al calor, semejantes a las del crisotilo. Los amiantos anfibólicos son más ásperos al tacto y, por’consiguiente, más difíciles de trabajar, y menos aptos para la fabricación de tejidos, a pesar de que sus fibras son más largas y que su resistencia a la tracción es grande (mayor que la de las cuerdas de acero para piano). La propiedad más importante de la crocidolita es su resistencia al ataque por los ácidos.

La crocidolita se encuentra principalmente en Sudáfrica, pero también hay grandes yacimientos en Bolivia y en Australia. La amosita se encuentra solamente en Sudáfrica. La resistencia a la tensión es mediana, pero, para algunas aplicaciones, su resistencia al calor resulta superior a la del crisotilo o la crocidolita. Sus fibras pueden tener hasta 30 centímetros de largo, y se usa principalmente para la fabricación de aislantes térmicos. Dado que la amosita es menos flexible y tiene menor resistencia a la tracción que el crisotilo y la crocidolita, sus aplicaciones son bastante limitadas.

Las fibras de los amiantos anfibólicos no sólo son más largas que las del amianto blanco, sino también más gruesas (de 400 a 100 milésimas de centímetro, en vez de dos millonésimas de centímetro). Son sólidas, y, por lo tanto, duras y elásticas, pero quebradizas.

Riesgos del amianto: Existe el riesgo de contraer determinadas enfermedades específicas provocadas por la inhalación de fibras de amianto: asbestosis, cáncer pulmonar y mesotelioma de pleura y/o peritoneo, además de una irritación crónica de la dermis.

Está compuesto por fibras microscópicas que pueden permanecer en suspensión en el aire el tiempo suficiente para que representen un riesgo respiratorio. Cuando el contacto es prolongado puede provocar son enfermedades del aparato respiratorio. El cáncer de pulmón es la más mortal de las enfermedades que afectan a las personas expuestas al amianto.

Otra enfermedad respiratoria es la asbestosis es una enfermedad asociada directamente a la exposición al amianto. Consiste en el desarrollo de una fibrosis pulmonar tras la inhalación de asbesto que con el tiempo dificultad para respirar.

MINERÍA Y TRATAMIENTOS
La mayoría de las rocas que contienen los minerales del amianto se explotan relativamente cerca de la superficie, por lo que esta minería resulta relativamente económica y sencilla, en comparación -con la minería profunda. Con frecuencia, las explotaciones están al descubierto.

A veces, sin embargo, se practican túneles en el frente de la roca, y el mineral se saca en vagonetas. El mineral bruto, con grandes cantidades de ganga, se pica o se dinamita de la roca, de forma parecida a como se hace con el carbón, y se separa provisionalmente a mano. La roca acompañante se tira y el material se lleva al grupo separador donde se extraer; las fibras largas.

Éstas forman el 3 % del mineral extraído, y son susceptibles de ser tejidas. El resto se tritura y se pasa por tamices. Los residuos se aventan para recuperar las pequeñas cantidades de amianto que puedan quedar. La producción de fibra es pequeña: una tonelada de fibra por cada ocho o hasta treinta toneladas de roca triturada.

La fibra de amianto separada por los tamices se lleva a un molino que funciona como un mortero, y a continuación se pasa a un molino de alta velocidad, donde las fibras se separan aún más.

APLICACIONES DEL AMIANTO
Las fibras largas usadas para tejer reciben un tratamiento más cuidadoso para separar las longitudes desiguales, los fragmentos de roca y las fibras no abiertas. A continuación se cardan, se bobinan y se tejen o trenzan. Generalmente se refuerzan con alguna fibra vegetal o, en algunos casos, con finos hilos de metal.

El tejido de amianto tiene muchas aplicaciones industriales. Se usa en revestimientos aislantes de muchas clases, para juntas y protecciones de calderas. Para estos revestimientos, la cubierta exterior de tejido de amianto se rellena de fibra suelta del mismo material. Los revestimientos están solamente extendidos y tensados, de forma que pueden quitarse fácilmente cuando hay que hacer reparaciones o para su manejo.

Los trenzados de amianto tienen usos muy variados en la industria para empaquetamientos y juntas, especialmente para máquinas de vapor y para bombas. Su resistencia al calor y su larga duración les hace excelentes para tales aplicaciones. Otra aplicación de relieve es en los frenos y embragues, donde las propiedades importantes son las de la resistencia y no alteración por el calor. La lisura del amianto permite que la pieza giratoria encaje sin vibración ni desgaste. La mayoría de las camisas anti-fricción se fabrican con tejido de amianto o se moldean con fibras o resina de este material.

Las fibras cortas de amianto son la mayor parte de las obtenidas en la mina y se usan para hacer tableros y objetos prensados. Hay una demanda creciente de fibrocemento (cemento con fibras de amianto) en la industria, especialmente en la de la construcción. Se usa para cubiertas de tejados y paredes, para edificar depósitos y hangares, así como para compartimientos. Los productos de fibrocemento moldeado se usan en la construcción de canales, desagües, tuberías, depósitos, tubos para cables y acequias.

Los tubos subterráneos de fibrocemento de gran diámetro se fabrican con destino a aprovisionamientos de aguas, cloacas y drenaje. La fibra de amianto puede también esparcirse sobre objetos, especialmente si se desea protección contra el fuego. Cuando la fibra se mezcla con un líquido, cada haz de fibras absorbe cierta cantidad de éste. Esta propiedad hace posible el pegarla sobre estructuras de acero, por ejemplo, o sobre la parte inferior de los pisos, para evitar que las llamas puedan extenderse a otras habitaciones.

El amianto de usa también mucho en el aislamiento del sonido. El amianto esparcido o pegado en las superficies es especialmente útil. Como material absorbente del sonido, se usa en las salas de cine o de conciertos, para eliminar las superficies que reflejan el sonido produciendo eco.

El amianto esparcido se aplica también a superficies frías donde, de otra forma, se acumularía la humedad. El amianto esparcido disminuye el enfriamiento de la capa de aire próxima a la superficie (por ejemplo, en un techo) y, de esta manera, evita la condensación.

El uso de amianto fue absolutamente prohibido en España en diciembre de 2001, si bien algunas de sus variedades se prohibieron antes como el amianto azul en 1984 y el amianto marrón en 1993.

Fuente Consultada:
TECNIRAMA La Enciclopedia de la Ciencia y la Tecnología Fasc. N°56
Sitio web español: http://www.amianto.com.es/

Tabla de Radiaciones Electromagneticas Ejemplos

Todas las emisión de radiaciones están presentes en los aspectos más variados de nuestra realidad, desde la función clorofílica de las plantas hasta las comunicaciones intercontinentales. Tal variedad de fenómenos determina, con frecuencia, una confusión sobre las particularidades y características de cada tipo de radiación; porque, aun cuando en conjunto sean todas emisiones de ondas sinusoidales, sus frecuencias y longitudes de onda peculiares les permiten desarrollar efectos  determinados.   Así,  los  rayos X,  que tienen  frecuencias muy altas pero cortas longitudes de onda, pueden atravesar perfectamente los tejidos animales y otros diversos materiales.

La radiación electromagnética se propaga en forma de ondas creadas por la oscilación en el espacio de campos eléctricos y magnéticos perpendiculares entre sí y a la dirección de propagación. Todas las ondas electromagnéticas viajan a la misma velocidad en el vacío, la velocidad de la luz c (300.000 Km/seg.), pero los distintos tipos de ondas tienen diferente longitud de onda y diferente frecuencia.

Estas dos magnitudes están relacionadas por la ecuación λ.f=c, de modo que a cada frecuencia le corresponde una única longitud de onda. El espectro completo de radiaciones electromagnéticas comprende una amplia variedad en longitudes de onda, desde las enormes ondas de baja frecuencia tan grandes como la Tierra, hasta los penetrantes rayos gamma, con longitudes más pequeñas que el núcleo de los átomos. Estos distintos tipos de radiación, si bien son producidos y detectados de maneras que les son propias, responden todos a la misma descripción ondulatoria de campos electromagnéticos.

Según la teoría electromagnética, las partículas cargadas aceleradas, como los electrones en una corriente variable dentro de un cable, irradian energía en forma de ondas. Las ondas de radio, de menos de 1010 Hz y longitudes mayores que 1 cm, pueden producirse y detectarse por circuitos eléctricos capaces de producir corrientes variables.

Este tipo de ondas es el que se ha utilizado para transmitir información “sin hilos”, es decir, sin un cable que se extienda entre el transmisor y el receptor de información, desde los famosos experimentos de Hein-rich Hertz en el siglo pasado.

Al igual que la luz visible, las ondas de radio pueden ser reflejadas, refractadas y absorvidas.

En el cuadro siguiente se han reunido, por orden decreciente de frecuencias y creciente de longitudes de onda, los principales tipos de radiaciones que existen; los procesos de emisión, sus causas y medios de detección permitirán catalogar, de modo simple y rápido, las diversas clases de radiaciones, cuya serie, en conjunto, se denomina espectro electromagnético.

Es interesante observar que los receptores sensoriales del hombre sólo perciben las radiaciones de una pequeña zona del espectro (luz visible  y rayos  infrarrojos).

LA RADIACIÓN SE PRODUCE EN POR FRECUENCIA
(CICLOS/SEG.)
TIPO DE LA RADIACIÓN LONGITUD DE ONDA (METROS) PUEDE SER
DETECTADA POR
Explosión atómica Núcleo atómico en oscilación 1020 Rayos gamma lO-ia Contador Geiger
Tubo de rayos X Trayectoria espiral de un electrón interno 1018 Rayos X Pantalla de rayos X
Lámpara Trayectoria espiral de un electrón externo 1016 Rayos ultravioleta
Luz visible
Cámara fotográficaOjo
Estufa Trayectoria espiral de un electrón externo 1012
1014
Rayos infrarrojos 10-* Receptores corporales
Sol Trayectoria espiral de un electrón 1010 Micro-ondas 10-2 10» Pantalla de radar
Circuito oscilanteAntena Oscilación de la Carga En Un Conductor

106

104

Ondasde radio 102
104
TelevisiónReceptor de radio

Biografia de Ohm Simón Obra Científica y Experimentos

Una vez Fourier hubo elaborado un sistema matemático que daba cuenta adecuadamente del flujo de calor, parecía que el mismo sistema podía emplearse para describir la corriente eléctrica. Mientras que el flujo de calor de un punto a otro dependía de las temperaturas de ambos puntos y de si el material que los unía era buen conductor del calor, la corriente eléctrica de un punto a otro podía depender del potencial eléctrico de los dos puntos y de la conductividad eléctrica del material intermedio. hm haciendo diversas experiencia de laboratorio, logró al fin determinar la famosa ley que lleva su nombre: “Ley de Ohm”

ley de ohm

Dice así: La magnitud de una corriente I eléctrica que pasa entre dos puntos es igual al cociente entre la tensión (o voltaje V) y la resistencia R del conductor por el que atraviesa dicha corriente. Esta es una ley de fundamental importancia, y una de las primeras que se aprenden al estudiar electricidad.

Hoy es conocida como la ley de Ohm, aunque en 1827, al ser enunciada por Jorge Simón Ohm, pasó inadvertida. De hecho, hubieron de transcurrir 16 años para que dicha ley recibiera 4a consideración que merece. En aquella época se prestaba mayor atención a los científicos jactanciosos y con amigos influyentes que a los de carácter reservado y tranquilo como lo era Ohm. Ohm nació en Erlangen (Alemania), en 1789.

ohm simon

Trabajando con alambres de diversos grosores y longitudes, el físico alemán Georg Simón Ohm (1789-1854) halló que la cantidad de corriente transmitida era inversamente proporcional a la longitud del alambre y directamente proporcional a su sección. De este modo pudo definir la resistencia del alambre y, en 1827, demostró que «la intensidad de la corriente a través de un conductor es directamente proporcional a la diferencia de potencial e inversamente proporcional a la resistencia». Ésta es la llamada ley de Ohm.

Era hijo de un maestro de taller, el cual decidió dedicarlo al estudio de las matemáticas y de la física. Y. el propio padre se puso entonces a estudiar estas disciplinas, para poder enseñar a su hijo lo aprendido, dándole clases cuando el muchacho salía de la escuela.

A la edad de 16 años, Ohm comenzó sus estudios en la Universidad de Erlangen, pero, desgraciadamente, la situación económica de la familia hizo que, al cabo de dos años, tuviera que dejar la universidad para colocarse como profesor en Suiza. Más adelante, pudo completar sus estudios y licenciarse; pero, por segunda vez, la falta de dinero le obligó a abandonar sus investigaciones en la universidad, volviendo, de nuevo, a su puesto de profesor.

Después de pasar 4 años enseñando física en Bamberg, se trasladó al Gimnasio de Colonia, donde llevó a cabo sus más importantes investigaciones.

Cuando Ohm comenzó sus experiencias, la electricidad se describía en términos muy imprecisos. No existía un modo exacto de expresar el comportamiento de una corriente eléctrica, y Ohm resolvió hacer algo en este sentido. Fourier había trabajado ya en la conducción del calor, llegando a la conclusión de que en un material conductor existía un gradiente de temperatura y que la cantidad de calor que conducía dependía de la caída de temperatura a lo largo del conductor.

Ohm se preguntó si la electricidad se comportaría del mismo modo que el calor, y si la diferencia de potencial jugaría aquí el mismo papel que la diferencia de temperatura jugaba en termología.

En sus últimos experimentos, Ohm utilizó como f. e. m. (fuerza electro-motriz) constante la proporcionada por un termopar (termocupla), constituido por cobre y bismuto soldados, una de cuyas uniones iba sumergida en hielo y la otra en agua caliente. Para medir la magnitud de la corriente, utilizó una aguja imantada, suspendida convenientemente. De este modo, Ohm pudo estudiar la magnitud de variación de la intensidad de corriente cuando se introducían en el circuito distintas resistencias.

Ohm era muy meticuloso en la realización de medidas y, a pesar de los instrumentos primitivos que utilizó sus resultados fueron lo suficientemente exactos como para demostrar, de manera concluyente, que la intensidad de corriente es igual al cociente entre la tensión y la resistencia. Ohm comprendió instantáneamente la importancia de su descubrimiento y supuso que le sería concedido un puesto en la universidad; en esta creencia, renunció a su cátedra de profesor en el Gimnasio de Colonia.

Las cosas no sucedieron exactamente así, y Ohm estuvo sin colocación durante 5 años; recién a los 60 de edad fue nombrado catedrático de la Universidad de Munich, cargo que desempeñó hasta su muerte, acaecida 5 años después, en 1854.-

EJEMPLOS PARA EXPLICAR DE LA LEY DE OHM

Fórmula General de Ohm

Un método sencillo de recordar las ecuaciones de la ley de Ohm: tapar: la cantidad buscada y los
dos símbolos restantes darán la fórmula requerida.

A condición de que las manifestaciones Físicas, tales como la temperatura, no varíen, la intensidad de la corriente (la cantidad de electrones en movimiento) que circula por un hilo es directamente proporcional a la diferencia de potencial (es decir, la diferencia de presión eléctrica que origina el movimiento de los electrones) entre las extremidades del hilo.

Este hecho se conoce con el nombre de Ley de Ohm. Veamos un ejemplo de esta ley: supongamos que tenemos un circuito en donde circula una corriente de 4 amperios. Por ejemplo una estufa eléctrica conectada a una red de 240 voltios. ¿Cuál es la intensidad de la corriente, si el voltaje de la red cae a 120 voltios?

La ley de Ohm nos dice que, ya que la diferencia de potencial (voltaje) se reduce a la mitad, la corriente debe reducirse en la misma proporción: se divide por dos. La nueva intensidad es, por lo tanto, de 2 amperios. En cada caso la relación voltaje/intensidad es la misma: 240/4=60 A ó 120/2=60 A

Por lo tanto, la ley de Ohm puede escribirse en forma de ecuación: V/I=constante

Si el voltaje, o diferencia de potencial, se mide en voltios, y la intensidad en amperios, entonces la constante, en vez
de ser simplemente un número, es por definición una medida de la resistencia del hilo; o sea, una medida de la resistencia que opone el hilo al paso de electrones a través de él. La resistencia se mide en unidades que reciben el nombre de ohmios.

Por tanto, diferencia de potencial / intensidad de corriente = resistencia en ohmios

Las resistencias medidas en ohmios se suelen simbolizar por el signo R; la diferencia de potencial en voltios se simboliza, generalmente, por V y la intensidad en amperios por I. Utilizando estos símbolos, la ley de Ohm puede escribirse en forma de ecuación: R=V/I. Que se desprende que V=I . R

En realidad, la corriente I=4 amperios es menor cuando la estufa está fría, ya que la resistencia de la mayoría de los metales aumenta con la temperatura. Por eso la ley de Ohm sólo es exacta cuando no varían las propiedades físicas.

Una resistencia de 60 ohmios presenta una oposición moderadamente alta al paso de la corriente eléctrica; si la estufa tiene una resistencia pequeña, digamos de 2 ohmios, presenta un camino mucho más cómodo y a su través pasa una intensidad mucho mayor.

¿Qué intensidad tiene la corriente que pasa por una estufa (con una resistencia de 2 ohmios) que se conecta a una red de 240 voltios? Como lo que buscamos es una intensidad, que se simboliza con una I, utilizaremos la ecuación:
I =V/R=240/2=120 amperios.

Ésta es una intensidad enorme (que fundiría los fusibles tan pronto como se encendiera la estufa). La mayor intensidad que puede soportar, normalmente, un fusible doméstico es de 15 amperios.

¿Cuál es la resistencia de una estufa eléctrica, que funciona justo a esta intensidad, con un voltaje de red de 240 voltios? Aquí lo que buscamos es la resistencia, simbolizada por una R, así qué lo mejor será utilizar la ecuación que contenga la R=V/I=240/15=16 ohmios (Ω)

También la ley de Ohm proporciona un método cómodo para medir voltajes. Un voltímetro sencillo es, realmente, un medidor de intensidad, o amperímetro. Nos indica la intensidad (I) amperios que el voltaje (V) que se quiere conocer hace pasar por una resistencia conocida (R) ohmios.

La magnitud del voltaje se deduce de la ecuación V=I . R- (No se necesita hacer el cálculo en la práctica, ya que esto se ha tenido en cuenta al calibrar el voltímetro.) Si un amperímetro, cuya resistencia total es de 200 ohmios, registra una corriente de 1/10 amperio, ¿cuál es el voltaje que impulsa a la corriente a través del amperímetro?.

O dicho en otras palabras, ¿cuál es la diferencia de potencial entre los bornes del amperímetro? De la ecuación:
V = I . R (esta ecuación es la preferible, ya que la V aparece en el lado izquierdo), se deduce el voltaje: 1/10 amp. . 200 ohm.=20 voltios.

ANALOGÍA DE LA CORRIENTE CON EL FLUJO DE AGUA

Lo intensidad de la corriente de un río es la cantidad de agua que pasa por debajo del puente en un segundo. La intensidad de una “corriente eléctrica” es la cantidad de electrones que pasa en un segundo por un conductor.

El movimiento del agua está producido por una diferencia de altura entre los extremos del río.
Un movimiento de electrones está producido por una diferencia de potencial entre los extremos de un conductor. La diferencia de potencial recibe el nombre de voltaje.

Cuanto mayor es la diferencia de alturas, mayor es la corriente de agua. Del mismo modo, cuanto mayor es la diferencia de potencial (voltaje), mayor es la corriente eléctrica. Al doblar la diferencia de alturas, dobla el flujo de agua; al doblar la diferencia de potencial (voltaje)/ dobla lo intensidad de la corriente. Ésta es la ley de Ohm.

La “estrechez” del río también controla la cantidad de agua que corre por debajo del puente en un segundo. Si el río es muy estrecho, la corriente es pequeña. Del mismo modo, la “resistencia” de un conductor controla el flujo de electrones. Si la resistencia es muy alta, la corriente eléctrica es débil. Si la resistencia es baja (equivalente a un río ancho), la corriente es intensa.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología – TECNIRAMA N°89 La Ley de Ohm

Vida de Bunsen Roberto Inventor del Mechero Científico

En el siglo XIX floreció en Alemania una aristocracia científica. En aquella época, los químicos eran personajes muy importantes y gozaban de gran estima entre el resto de la población. Pero no sólo eran respetados, sino que, con frecuencia, los científicos notables estaban muy bien remunerados, disfrutando de un elevado nivel de vida. La admiración general que la química despertaba, atrajo a los mejores investigadores de otros países, y nadie podía ser considerado un buen químico si no había realizado estudios en Alemania.

Bunsen Robert

Roberto Guillermo Bunsen (1811-1899) fue uno de los personajes más brillantes de la Alemania del siglo xix. Inició sus estudios de zoología,  física y  química  en su ciudad natal, Goettinga (Alemania), ampliando sus conocimientos en París, Berlín y Viena. Fue nombrado profesor de química de la Universidad de Heidelberg, en 1852.

Fue un experimentador audaz. En el curso de uno de sus experimentos perdió la visión de un ojo, lo que no impidió que repitiera el experimento delante de sus alumnos, aterrorizando a los que ocupaban los primeros bancos. En otra ocasión, estuvo a punto de morir envenenado por arsénico y, durante sus experiencias con este elemento, descubrió que el óxido de hierro hidratado era un antídoto eficaz contra dicho tóxico.

Su nombre es recordado, principalmente, por el aparato de laboratorio ideado por él y llamado, en su honor, mechero Bunsen. El gas era, en aquella época, la fuente de calor más usada en los laboratorios; pero si abrimos una llave de gas y prendemos el chorro que brota por el extremo del tubo, la llamita luminosa que se produce es relativamente fría.

Esto se debe a que no existe suficiente cantidad de oxígeno, en el interior de la llama, para que el gas se queme por completo, y el carbono que no ha ardido se deposita en forma de una capa negra, ennegreciendo los objetos calentados. El mechero diseñado por Bunsen aumenta la eficacia calorífica de la llama, ya que su temperatura es más elevada y no deposita hollín. Para conseguirlo, dispuso una entrada de aire regulable en la base del tubo.

La corriente de gas succiona el aire a través del orificio y, si la mezcla resultante contiene 2,5 veces más aire que gas, la llama que produce un zumbido característico será limpia y de gran poder calorífico. Pero si contiene un exceso de aire, la llama se propagará al interior del tubo, ardiendo en la base, en lugar de hacerlo en el extremo superior; es decir, el mechero se cala. Bunsen estudió el tamaño del tubo y del orificio de entrada de aire, hasta conseguir resultados satisfactorios.

Mas, sus esfuerzos científicos no se concentraron en una sola dirección, sino que trabajó en diversos campos, realizando descubrimientos importantes. Inventó una pila de carbono-cinc y un calorímetro de hielo; obtuvo magnesio metálico en grandes cantidades, empleándolo, en parte, como fuente luminosa; contribuyó al análisis de gases y estudió las solubilidades de éstos en los líquidos. Otra de sus invenciones, el jotómetro de mancha, es un dispositivo que se emplea para comparar la intensidad de dos fuentes luminosas, y todavía lleva su nombre.

En colaboración con Kirchhoff, estudió el espectro emitido por los elementos al calentarlos, encontrando dos espectros no identificados, que les condujeron al descubrimiento del cesio y el rubidio. Tras una vida muy activa, falleció en 1899, a la edad de 88 años.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°88 Roberto Bunsen

Diferencia entre peso y masa Concepto Físico

El peso y la masa son, probablemente, las palabras más intensamente empleadas por el lenguaje científico. Están en tan íntima relación que, en circunstancias normales, el peso y la masa de un objeto tienen exactamente el mismo valor numérico. 10 kilos de papas tendrán un peso de 10 kilos y una masa de 10 kilos.

Como los valores son los mismos, se tiene la falsa impresión de que las palabras son sinónimas. Si hemos pesado una zapallo con un aparato que funciona mediante el alargamiento de un resorte (cuanto más pesado sea el objeto, el resorte se estira más), entonces medimos realmente el peso. El zapallo tiene un peso de 10 kilos.

Cuando se ponen las papas en el platillo del aparato, el resorte tira del platillo y de su contenido hacia arriba, oponiéndose a su alargamiento. Por otra parte, la fuerza de la gravedad actúa sobre el zapallo, empujándolo hacia abajo. El resorte se larga hasta que estas dos fuerzas opuestas se equilibran exactamente, y el peso se lee como una medida de dicho alargamiento.

balanza de resorte pensado

Esta balanza de resorte mide la fuerza (P) con que es atraída la masa del zapallo, que según la Ley de Newton, es igual a la masa (m) por la aceleración de la gravedad (g) , ósea: P=m.g. Esta balanza mide peso o fuerza, y según donde se haga a medición variará, porque depende del valor de “g”, no es lo mismo pesar en la Tierra que en la Luna, o en cualquier orto planeta, es decir, el peso varía según la masa m y la aceleración g. Cuanto mas masa o mas aceleración, mayor será el estiramiento “x” del resorte.

El resorte mide, por tanto, la magnitud de una fuerza que intenta estirarlo, y por ello el peso debe ser una clase de fuerza. El empuje hacia abajo del zapallo  depende de dos factores: la cantidad de sustancia o materia contenida en las papas y la atracción de la gravedad de la Tierra. La masa del zapallo no depende del lugar donde se encuentre éste; a menos que se les quite algún trozo, la cantidad de materia que las compone será siempre la misma.

En cambio, el campo gravitatorio de la Tierra (la atracción que ésta ejerce sobre un cuerpo) varía. Si dejamos caer una piedra en un pozo sufrirá un incremento de velocidad de 9,8 metros por cada segundo que cae.

Si la piedra cayera desde un satélite en órbita, situado a muchos kilómetros de distancia, entonces, en un segundo, el incremento de velocidad sería muchísimo menor. Esto es debido a que la piedra se encuentra más lejos de la Tierra y la influencia de esta última sobre ella es mucho menor.

A medida que cambia la acción del campo gravitatorio de la Tierra, cambia el peso del objeto. Si utilizamos un dinamómetro, el zapallo pesará ligeramente menos en la cima de una montaña que al nivel del mar. En cambio, la masa es algo que no varía nunca. Es la cantidad de materia que contiene una sustancia.

Un bloque de plomo está compuesto de un número determinado de átomos. Cada átomo tiene 82 protones, 126 neutrones y 82 electrones. En otras palabras, cada átomo tiene cierta cantidad de materia en él. No importa que el bloque de plomo está en el fondo de un pozo, en la cima de una montaña o en la superficie de la Luna: si no se le ha quitado ni añadido nada, contiene la misma materia y, por lo tanto, la misma masa.

Por este motivo, para medir la masa hay que utilizar un aparato que dé la misma medida, cualquiera que sea el lugar donde sea utilizado. A este fin se usa una balanza. El objeto cuya masa se desconoce, se coloca en el platillo izquierdo de la balanza.

balanza de masa

El platillo desciende, y el brazo de ésta se inclina al no haber nada en el otro platillo para equilibrarlo. Unas pesas metálicas (denominación impropia, pues deberían llamarse masas) se colocan en el otro platillo hasta alcanzar el equilibrio: una masa se equilibra con otra masa.

Si se lleva la balanza a un lugar donde la atracción de la gravedad sea mucho menor, el objeto sufre un menor empuje, pero también le ocurre lo mismo a las “pesas” del otro platillo, y se obtiene el mismo resultado. La balanza de precisión se utiliza para medir masas con una exactitud de cuatro diez-milésimas.

Las pesas, por lo tanto, deben tratarse con mucho cuidado. Si se desgastan pierden cierta masa, y en contacto con los dedos se ensucian con la grasitud de las manos y sufren un aumento de masa. Por ello se deben tomar siempre con pinzas. Éste es uno de los motivos por los que las balanzas de mayor precisión se manejan por control  remoto.

Fuente Consultada:
Enciclopedia de la Ciencia y Tecnología TECNIRAMA N°86

PLANISFERIO MAPA DEL MUNDO MAPAMUNDI Mapa Político del Mundo Paises

POR RAZONES DE ESPACIO SE HA DIVIDIDO EL PLANISFERIO EN DOS PARTES, PERO PUEDE ACCEDER A UN GRAN PLANISFERIO OCUPANDO TODA LA PANTALLA.

planisferio

planisferio

planisferio

planisferio

VENTANA CON MAPA COMPLETO

 

Descargar Distintos Planisferios en Diversos Formatos
 Planisferio Mudo con Sus Costas y Ríos
 Planisferio Mudo con Sus Costas y Poblados
 Planisferio Mudo con Poblados con Nombres
 Planisferio con los Estados o Países
 Planisferio con los Estados o Países a Color
 Planisferio Hidrográfico a Color
 Ver Todas Las Opciones

 Descarga de Mapas de los Países del Mundo

Otros Enlaces en Este Sitio
Mapa de América
Mapa de África
Mapa de Asia
Mapa de Europa
Mapa de Oceanía
Los Continentes del Planeta
10 Curiosos Datos Estadísticos del Mundo
Nombres y Banderas De  Los Países de América
Geografía del Mundo
Turismo Virtual
Juego de Ubicar Lugares en el Mundo

Cartografía del mundo
Hace casi 500 años, cuando se generalizó la creencia de que la Tierra era una esfera, los cartógrafos establecieron dos premisas esenciales. Una implicaba un sistema general de meridianos de longitud (del latín longus, «largo») y paralelos de latitud (de latus, «ancho»), que harían posible fijar cualquier situación en el globo. La segunda suponía un método de transferir detalles de una esfera a un planisferio, procedimiento que los cartógrafos modernos llaman una «proyección». Como la Tierra es redonda, no tiene esquinas desde las cuales puedan ser hechas las mediciones. Por lo tanto se utilizan dos puntos definidos de medición, el Polo Norte y el Polo Sur que son los extremos del eje imaginario sobre el cual gira la Tierra.

Al cartografiar la Tierra, los cartógrafos sitúan el Ecuador (la línea del centro alrededor de la Tierra) y los paralelos de latitud como rebanadas de la esfera. Cada paralelo es un enorme círculo dividido en 360°. Cada grado es equivalente aproximadamente a 60 millas náuticas empezando por el Ecuador (una milla náutica equivale a 1.852 metros). Los grados se dividen en 60 minutos, y cada minuto equivale a una milla náutica. El minuto se divide en 60 segundos.

El Ecuador está a 0° de latitud. Hacia el norte, los paralelos a partir del Ecuador están divididos de 1° a 90° (1/4 de círculo) y son llamados «latitud norte». Los paralelos, hacia el sur están también numerados del 1° al 90° y son denominados «latitud sur».

Los paralelos no son suficientes para indicar una localización en la Tierra, así que los cartógrafos colocan meridianos curvados (también medidos en grados, minutos y segundos) de longitud que convergen en los polos Norte y Sur. Como los meridianos cruzan los paralelos, dada la latitud y longitud de cualquier punto de la Tierra, uno puede localizarlos fácilmente.

Mientras que los paralelos de latitud empiezan con 0° en el Ecuador, el meridiano 0° de longitud utilizado desde 1884 por unos 25 países es el meridiano en que está situado el observatorio de Greenwich en Londres, Inglaterra. (Anteriormente muchos países utilizaban los meridianos que pasaban por sus capitales como primer meridiano.) Los meridianos se miden hasta el 180° al este de Greenwich y 180° al oeste de Greenwich. La longitud y el tiempo son inseparables. Una hora es el equivalente a 15° de longitud. Un grado es igual a 4 minutos de tiempo.

La transferencia de las líneas curvadas de los meridianos y paralelos al papel plano de modo que las líneas rectas puedan ser utilizadas como direcciones de compás, se logra por un sistema generalmente llamado como proyección Mercator, por Gerardus Mercator, matemático, geógrafo y grabador, que falleció en 1594.

En su sistema de proyección, todos los paralelos y meridianos forman ángulos rectos entre sí (no curvados como serían en el globo). Los meridianos convergentes de longitud son separados hasta que quedan rectos y paralelos. Mercator lo compensó extendiendo las distancias entre paralelos a un promedio creciente desde el Ecuador hasta los polos. Las tierras y mares fueron distorsionados por el método Mercator, particularmente en las regiones polares. Al enderezar los meridianos, Mercator produjo un enrejado de líneas rectas sobre el mapa, haciéndolo de gran valor para direcciones exactas de compás. El profesor Edward Wright de la universidad de Cambridge mejoró el sistema de proyección Mercator en 1 5 90 y esta adaptación fue aceptada generalmente hacia 1630 y continúa sirviendo a los navegantes aéreos y terrestres y se dice que no tiene igual como ayuda en la navegación. En la actualidad hay en uso otros tipos de proyección; pero todos tienen cierto grado de distorsión.

Los mapas del mundo revelan que menos del 30 % de la superficie de nuestro planeta es tierra; el resto es agua. La navegación segura en el agua en la actualidad depende de una carta náutica, que muestra las profundidades del agua, las posiciones de los cables submarinos, las marcas de reconocimiento terrestres, zonas de anclaje o de prohibición de anclaje, localización de boyas, luces u otras señales luminosas, y otras informaciones. Una carta oceanógrafica es empleada para proporcionar información sobre la distribución de propiedades físicas y químicas en el mar (temperatura, salinidad, etc.), geología, meteorología y biología marina.

En tierra, los mapas topográficos son utilizados por todas las naciones para revelar la elevación de las distintas zonas. La elevación promedio de los Estados Unidos, exceptuando Alaska y Hawaii, es de unos 700 m sobre el nivel del mar. Un mapa topográfico es un registro detallado de la topografía de una zona terrestre, con posiciones geográficas y elevación de los rasgos naturales o hechos por el hombre. Por medio de las líneas de contorno y otros símbolos, los mapas topográficos muestran la forma de la Tierra (las montañas, valles y llanuras) en su forma mensurable. Muestran la red de cursos de agua y de ríos y otros rasgos acuáticos en su verdadera relación
con la Tierra, y las principales obras del hombre en su tamaño relativo y verdadera posición.

Cosa sorprendente, sólo una pequeña porción de la superficie terrestre ha sido cartografiada hasta el grado de exactitud requerido hoy con propósitos industriales, militares, científicos y recreativos. (Sólo un 40 % de la superficie de los Estados Unidos está cubierta por mapas topográficos.)

Los mapas geológicos, que emplean un mapa topográfico como base, revelan qué clase de rocas existen dentro de un país. Los geólogos entrecruzan la Tierra, examinando formaciones rocosas de su superficie y haciendo proyecciones estudiadas de las del subsuelo.Los mapas geológicos son vitales para determinar la localización, profundidad y dimensiones de valiosas masas rocosas tales como las piedras de construcción o las vetas de mineral.

Hoy se hace un creciente uso de la «fotogeología», fotografía aérea y orbital (espacio) para identificar y cartografiar las formaciones geológicas, ciertas características del agua y las fallas terrestres, indicando dónde se pueden producir terremotos. Los aparatos muy sensibles instalados en los aviones, o los satélites que orbitan la Tierra, pueden detectar diferencias de temperatura en varios tipos de formaciones rocosas. La cartografía geológica desempeña un papel vital en determinar dónde están colocadas las estructuras (y cómo son diseñadas, construidas y mantenidas) analizando las rocas y suelos que los rodean.

Los terremotos, inundaciones y otros desastres, pueden hacer que un mapa quede anticuado. La naturaleza puede causar cambios en una costa, requiriendo revisiones para hacer que los mapas usados corrientemente sean exactos.
Los mapas revelan mucho a una nación sobre el mundo que la rodea, como el hecho poco conocido de que la costa occidental de Alaska está a menos de 50 millas de la Unión Soviética.

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Tabla periodica de los elementos quimicos Tabla de Mendeleiev

Tabla Periódica de los Elementos Químicos
Tabla de Mendeleiev

El estudio del átomo llevó a establecer algunas propiedades de los elementos químicos, que al ser comparadas con las de otros elementos, observaban similitudes, ofreciendo posibilidad de clasificación. Durante el siglo XIX Se acrecentó el interés por encontrar la manera de clasificar los elementos.

En 1869 el profesor de química de la universidad de San Petersburgo Dmitri Ivánovich Mendeléiev —un hombre liberal, feminista y excéntrico (sólo se cortaba el cabello una vez al año)— tuvo bastantes altercados con el gobierno zarista. Y el «memorándum» que distribuyó entre sus colegas en 1869 no impidió que el gobierno lo enviara varias veces al extranjero.

Se trataba sólo de un pequeño cuadro en el que los 63 elementos químicos conocidos aparecían ordenados por sus pesos atómicos, en orden creciente, y colocados de manera que los que tenían propiedades químicas parecidas estuvieran en una misma columna. La extraña periodicidad que esta disposición revelaba parecía totalmente arbitraria, máxime cuando Mendeléiev había hecho algunos apaños, corrigiendo ciertos pesos atómicos para que cuadraran o dejando huecos poco verosímiles.

En 1869 el químico ruso Dimitri Mendeleyev ideó un ingenioso catálogo de los elementos, la tabla periódica. Observó que los elementos parecen distribuirse en familias, que se repiten periódicamente, con propiedades químicas semejantes.

Siguiendo este criterio, anotó el símbolo químico y el peso atómico de todos los elementos conocidos y los ordenó, según su peso, en orden de menor a mayor; también colocó los elementos con propiedades semejantes en columnas verticales. De este modo formó un esquema, una especie de mapa donde los elementos aparecen ordenados en familias verticales y en períodos horizontales.

El hidrógeno, el más ligero de los elementos, ocupa un lugar algo apartado del conjunto, debido a sus propiedades especiales. En tiempo de Mendeleiev se creía que el átomo era indivisible, pero el descubrimiento de los rayos X y de la radiactividad provocaron la primera duda. Actualmente sabemos que el átomo está constituido por tres clases principales de partículas: protones, neutrones y electrones.

Protones y neutrones constituyen el núcleo del átomo. Los electrones, que giran en órbita alrededor del núcleo, determinan las propiedades químicas y, en consecuencia, la situación de los elementos en la tabla periódica.

A la izquierda de la tabla aparecen representaciones simplificadas de los átomos de los elementos pertenecientes a la familia de los metales alcalinos; sobre la misma se hallan los elementos del segundo período. Adviértase que todos los metales alcalinos poseen un solo electrón en la órbita externa; precisamente esta estructura similar es causa de su semejanza en las propiedades químicas.

En el segundo período la situación es completamente diferente. Aunque cada átomo tiene dos órbitas, varía el número de electrones de la exterior. La diferencia de estructura provoca la diferencia de propiedades. Según crece el número de electrones de la órbita exterior, las propiedades varían de izquierda a derecha, es decir, de los metales a los metaloides.

Cuando se completan los ocho electrones posibles de la órbita exterior (neón), concluye el segundo período. El sodio, que inicia el tercer período, posee una órbita más con un electrón. Los períodos aumentan y se hacen más complejos a medida que crece el número de órbitas.

También aumenta el número de electrones en las órbitas sucesivas. Los átomos pesados son los menos estables: todos los elementos posteriores al bismuto, cuyo número atómico es 83, son radiactivos.

Los elementos reciben un nombre que responde en algún:; casos a raíces latinas, y en otro en honor a la persona que los descubre. Éstos se abrevian en símbolos, si tiene una sola letras deberá, ser mayúscula y si lo componen dos, la primera mayúscula y la segunda minúscula por ejemplo nitrógeno (N) y  sodio (Na), respectivamente.

PRIMERAS CLASIFICACIONES DE LOS ELEMENTOS QUÍMICOS:

Las tríadas de Dobereiner: En 1829, Dobereiner, químico alemán, clasificó los elementos conocidos. Agrupaba tres elementos con características observables similares. La clave de esta forma de organización era el hecho de que para uno de los elementos que formaban el grupo, la masa era el valor promedio de las masas de los tres elementos, por ejemplo (Li, Na, K) cuyas masas son 7, 23, y 39 gramos respectivamente. Si sumas los tres datos y los divides entre el número de elementos (3) te da exactamente el valor de la masa del Na, el cual se ubica en la mitad. Clasificación dispendiosa y no muy exacta para nuevos elementos.

Octavas de Newlands: En 1864, Newlands, químico inglés, clasificó los elementos en grupos de ocho, por lo que se conocen como octavas de Newlands. Esta clasificación hacía alusión al término de periodicidad, ya que según la teoría, las propiedades de algunos elementos conocidos se repetían cada ocho elementos y básicamente las organizó en orden ascendente de sus pesos atómicos.

Mendeleiev y Meyer: la tabla periódica: En 1869 Dimitri Mendeleiev, químico ruso, retoma los estudios realizados anteriormente y basándose también en propiedades periódicas de los elementos, los organiza por orden de pesos atómicos ascendentes y, con algunas propiedades más, agrupó los elementos por familias en las que incluyó a los elementos con mayor cantidad de similitudes. Paralelamente Meyer, físico alemán, realizaba estudios basado en los mismos principios, pero añadió estudios de algunas propiedades físicas, que también resultaron ser periódicas, tales como el radio atómico. El gran aporte de Mendeleiev es la base de la tabla periódica actual, ya que dejó los espacios para elementos aún no descubiertos, que respondían a sitios vacíos en la tabla periódica.

REGIONES DE LA TABLA PERIÓDICA
La tabla periódica esta dividida a nivel general en metales y no metales. Sin embargo, hay otra diferenciación, que la divide en regiones, división basada en los subniveles energéticos que ocupan los electrones del ultimo nivel. Así la tabla periódica está dividida en la región s, la región p, la región d y la región f. Por ejemplo, en la región s se ubican los elementos cuyos e- finalicen su distribución en el subnivel s. En esta sección nos ocuparemos de las regiones d y f de la tabla periódica, correspondientes a los elementos de transición.

Elementos de transición
Los átomos de los elementos siempre tienden a ser estables energéticamente, por lo cual ceden, comparten o pierden electrones. Esta estructura estable coincide cuando en su último nivel hay ocho electrones, pero en el caso de este grupo particular de elementos, se suspende el llenado del último nivel para completar primero el penúltimo nivel. Por esta razón aunque los demás elementos de la tabla periódica tiendan a realizar sus enlaces utilizando los electrones del último nivel de energía, éstos lo hacen tanto con los electrones del último nivel, como con los del penúltimo. Se caracterizan además, por poseer gran cantidad de estados de oxidación, es decir, que involucran diferentes cantidades de electrones para intervenir en un enlace, lo que hace que formen varios compuestos. Los elementos que pertenecen a este grupo especial, son los pertenecientes a los lantánidos, actínidos y tierras raras.

Electronegatividad
Si se analizan las propiedades de los elementos químicos, también se puede establecer que hay periodicidad teniendo en cuenta la electronegatividad de los elementos químicos, que básicamente es la tendencia que tienen los átomos de atraer o captar electrones; son ejemplo de ello el oxígeno y el cloro, ya que la electronegatividad aumenta en un periodo de izquierda a derecha y en un grupo de abajo hacia arriba. Y si localizas estos dos elementos se ubican en los lugares más electronegativos de la tabla periódica. Este concepto fue establecido por L. Pauling, quien determinó valores de electronegatividad para cada uno de los elementos; algunos ejemplos se muestran en la tabla que sigue:

Na Mg Al P Cl F Br I At Fr
0.9 1.2 1.5 2.1 3.0 4.0 2.8 2.5 2.2 0.7

Por otra parte y como compensación, existe otro grupo de átomos que tiende a perder los elec-trones, siendo estos los electropositivos. Por ejemplo el sodio y el calcio al poseer solamente 1 y 2 electrones, respectivamente, en su último nivel tienden a cederlos. De esta manera empieza también a evidenciarse la afinidad entre ellos, dado que el átomo que tiende a capturar se complementaría en un enlace químico con uno que tienda a ceder o perder electrones.

Valencia
Para establecer de qué manera los átomos se relacionan, es necesario saber la cantidad de electrones que un átomo puede atraer (ganar), ceder (perder) o compartir con otro átomo, concepto que se conoce con el nombre de valencia. La ilustración 3.16, muestra la forma como se relacionan dos átomos de dos elementos, para formar un compuesto: el átomo de sodio pierde un electrón, es decir su valencia es 1 y el átomo de cloro gana 1 electrón, entonces su valencia también es 1. En síntesis, la valencia es el poder de combinación de un elemento con otro, dado por los electrones del último nivel.

Enlace
La unión entre los átomos se denomina enlace, que es una fuerza de atracción lo suficientemente intensa como para permitir que los átomos involucrados funcionen como una unidad. Se realiza básicamente entre los electrones del ultimo nivel de energía y se produce cuando .las fuerzas de atracción superan las de repulsión, clasificándose, según la manera de establecer la unión. Así pues:

Enlace iónico: se origina cuando un átomo cede y otro captura los electrones.
Enlace covalente: se origina cuando los átomos involucrados comparten sus electrones, dado que tienen la misma fuerza de atracción.

tabla periodica de mendeleiv

Ver Una Tabla Periódica Con Mas Datos

TABLA ACTUAL CON PESOS ATÓMICOS APROXIMADOS

N° Atómico Nombre Elemento Símbolo N° Protones N° Electrones Peso Atómico
1 hidrógeno H 1 0 1,0
2 helio He 2 2 4,0
3 litio U 3 4 6,9
4 berilio Be 4 5 9,0
5 boro 6 5 6 10,8
6 carbono C 6 6 12,0
7 nitrógeno N 7 7 14,0
8 oxígeno 0 8 8 16,0
9 flúor F 9 10 19,0
10 neón Ne 10 10 20,2
11 sodio Na 11 12 23,0
12 magnesio Mg 12 12 24,3
13 aluminio Al 13 14 27,0
14 silicio Si 14 14 28,1
15 fósforo P 15 16 31,0
16 azufre S 16 16 32,1
17 cloro Cl 17 18 35,5
18 argón A 18 22 39,9
19 potasio K 19 20 39,1
20 calcio Ca 20 20 40,1
21 escandio Se 21 24 45,0
22 titanio Ti 22 26 47,9
23 vanadio V 23 28 50,9
24 cromo Cr 24 28 52,0
25 manganeso Mu 25 30 54,9
26 hierro Fe 26 30 55,8
27 cobalto Co 27 32 58,9
28 níquel Ni 28 30 58,7
29 cobre Cu 29 34 63,5
30 cinc Xn 30 34 65,4
31 galio Ga 31 38 69,7
32 germanio Se 32 42 72,6
33 arsénico As 33 42 74,9
34 seienio Se 34 46 79,0
35 bromo Br 35 44 79,9
36 criptón Kr 36 48 83,8
37 rubidio Rb 37 48 85,5
38 estroncio Sr 38 50 87,6
39 itrio Y 39 50 88,9
40 zirconio Zr 40 50 91,2
41 niobio Nb 41 52 92,9
42 tnolibdeno Mo 42 56 95,9
43 tecnecio Te 43 56 (99)
44 rurenic- Ru 44 58 101,1
45 rodio Rh 45 58 102,9
46 paíadio Pd 46 60 106,4
47 plata Ag 47 60 107,9
; 48 cadmio Cd 48 66 112,4
49 indio In 49 66 114,8
50 estaño Sn 50 70 118,7
51 antimonio Sb 51 70 121,8
52 teluro Te 52 78 127,6
53 yodo 1 53 74 126,9
54 xenón Xe 54 78 131,3
55 cesio Cs 55 78 132,9
56 bario Ba S6 82 137,3
57 laura no La 57 82 138,9
58 ceño Ce m 82 140,1
59 praseodimio Pr 59 82 140,9
60 neodimio Nd 60 82 144,2
61 prometió Pm 61 86 (147)
62 samarlo Sm 62 90 150,4
63 europio Eu 63 90 152,0
64 gadolinio Gd 64 94 157,3
65 terbio Tb 65 94 158,9
66 disprosío Dy 66 98 162,5
67 holmio Ho 67 98 164,9
68 erbio Er 68 98 167,3
69 tuiio Tm 69 100 168,9
70 iterbio Yb 104 173,0
71 lutecio Lu 71 104 175,0
72 hafnio Hf 72 108 178,5
73 tantalio Ta 73 108 180,9
74 volframio W 74 110 183,9
75 renio Re 75 112 186,2
76 osmio Os 76 116 190,2
77 iridio Ir 77 116 192,2
78 platino Pt 78 117 195,1
79 oro Áu 79 118 197,0
80 mercurio H9 80 122 200,6
81 íalio TI 81 124 204,4
82 plomo Pb 82 126 207,2
83 bismuto Bi 83 126 209,0
84 pofonio Po 84 125 (299)
85 astatino At 85 125 (210)
86 radón Rn 86 136 (222)
87 francio Fr 87 136 (223!
88 radío Ra 88 138 (226,0)
89 actinio Ac 89 138 (227)
90 torio Th 90 142 (232,0)
91 protactinio Pa 91 140 (231)
92 uranio U 92 146 (238,0)
93 neptunio Np 93 144 (237)
94 plutonio Pu 94 150 (244)
95 americio Am 95 148 (243)
96 curio Cm 96 151 (247)
97 berkelio Ble 97 152 (249)
98 californio Cf ?8 151 (249)
99 einstenio Es 99 155 (254)
100 fermio Fm 100 153 (253)
101 mendelevio Md 101 155 (256)
102 nobelio No 102 152 (254)
103 laurencio Lw 103 154 (257)

ALGO MAS…
EL GENIO  INTRÉPIDO
A fines del siglo pasado flotaba ya en la atmósfera científica la idea de que al ordenar los elementos por peso atómico creciente aquellos de propiedades químicas comparables reaparecían en forma periódica. Por ejemplo, la serie alcalina litio-sodio-potasio-rubidio-cesio, o los halógenos flúor-cloro-bromo-yodo (algunos fueron descubiertos después).

Pero, a pesar de que en los más livianos dicha repetición tenía lugar de ocho en ocho y en los más pesados cada dieciocho elementos, había muchas lagunas y contradicciones.

Dimitri Mendeleiev elaboró una tabla en cuyas casillas se ordenaban en forma horizontal los pesos atómicos y vertical las “familias” de elementos químicamente similares.

Mendeleiev

Pero en su época se conocían menos de 45 cuerpos simples de los 103 que hoy forman la tabla periódica. El mérito capital del sabio ruso consistió en considerar que las fallas y vacíos del cuadro no eran imputables a éste, sino a los químicos que aún no habían descubierto el elemento destinado a intercalarse en el lugar que se le reservaba.

Así Mendeleiev vaticinó sin errores el peso atómico probable de varios elementos desconocidos, sus propiedades químicas esenciales y hasta las probables combinaciones naturales en cuyo interior se ocultaban.

Hubo dificultades. Fue necesario invertir, sin razón plausible, el potasio y el argón (hoy sabemos que una variedad de este último posee un neutrón más en su núcleo). Tampoco se sabía que la primera órbita periférica del átomo se satura con dos electrones (hidrógeno-helio), la siguiente con ocho,  etc.

Pero a pesar de su carácter empírico y sus enormes carencias, lo tabla de Mendeleiev resultó un armo prodigiosa para lo investigación científica y fue inmenso su buen éxito.

Fuente Consultada: Enciclopedia NUEVO Investiguemos Ciencia Integrada  Tomo 3

Ver: Naturaleza de la Materia

Efectos de la presion en el fondo de mar Vivir en el Fondo del Mar

EL EFECTO DE LA PRESIÓN DEL MAR EN LAS PROFUNDIDADES

El peso del aire nos pasa inadvertido porque, como cualquier otro fluido, el aire ejerce su presión en todas direcciones. La sangre en nuestras venas, el aire en nuestros pulmones, los fluidos de nuestros cuerpos están a presión atmosférica. Ejercen una presión hacia afuera igual a la que la atmósfera ejerce hacia adentro.

Es decir, estamos en equilibrio con nuestro ambiente. Si nos sumergimos en agua, la presión externa crece rápidamente con la profundidad y no puede ser equiparada desde adentro sin dañar nuestros tejidos.

Por esta razón, un hombre sin protección alguna tiene limitada su inmersión, aunque esté equipado con un tanque de oxígeno. Por otro lado, existen formas de vida adaptadas a los más profundos abismos del océano, donde la presión hidrostática es de más de 1.000 atmósferas.

Esos seres están balanceados con su entorno y se mueven con la misma indiferencia con que nosotros “buceamos” en el océano del aire.

Cuando el buzo se sumerge sin protección rígida, debe respirar aire a la misma presión que la del entorno. El tanque de aire comprimido que carga en la espalda tiene un regulador que permlle que el aire inhalado cumpla con este requisito.

Desde que se ha empezado a utilizar el aire comprimido se sabe que la exposición a grandes presiones puede dañar o matar; gradualmente se ha comenzado a entender los mecanismos subyacentes en tales afecciones.

A fines del siglo XIX comenzaron a usarse unas cabinas especiales presurizadas durante la construcción de los cimientos de los puentes, bajo agua. Cuando los obreros eran sometidos a descompresión, desarrollaban una serie de afecciones que iban desde dolores en las articulaciones, entumecimientos, parálisis, hasta incluso la muerte.

En este siglo, el grupo de riesgo se ha extendido a buzos, obreros en cabinas pilotos de aviones volando a grandes alturas y astronautas. Cuando un buzo novato retiene el aire mientras sube muy ligero, puede sufrir embolia gaseosa. Se produce porque la presión del entorno disminuye rápidamente, entonces el gas sin escape de los pulmones se expande.

El pulmón se rasga y el aire escapa a la sangre.

Por los circuitos arteriales las burbujas pueden llegar al cerebro y provocar parálisis o muerte. La enfermedad de la descompresión propiamente dicha es la consecuencia de formación de burbujas en los tejidos. El gas que lo provoca (nitrógeno, por lo general) entra al cuerpo por los pulmones en una inmersión, y la alta presión hace que se disuelva en la sangre.

La circulación lo lleva hasta los capilares donde se difunde en los tejidos. Esta difusión es más rápida en la médula espinal y en el cerebro (porque están más irrigados), yen los músculos calientes y activos.

Una manera de prevenir la enfermedad consiste en un ascenso lento, a razón de 9 metros por minuto, o con paradas de seguridad regulares. Otra, es la aspiración de mayor concentración de oxígeno; se venden tubos con aire con una concentración de 32% de oxígeno (en lugar del 21% normal).

Los buzos aficionados pueden bucear hasta una profundidad de 39 metros con un tubo de aire comprimido común y sin necesitar de una descompresión por etapas mientras suben. Pero son muchos los buzos que mejorando su equipo, y aumentando el riesgo, prefieren incursionar en lo más profundo para poder encontrarse con restos de naufragios, túneles y oscuras cavernas, entre otras maravillas.

Últimamente se han experimentado diferentes mezclas de gases para evitar que las altas presiones resulten nocivas para el organismo. En 1993, una inmersión simulada (en una cabina presurizada especial) alcanzó el récord de 701 metros de profundidad. Estas experiencias límite requieren de siete días de compresión progresiva y de treinta días de descompresión.

El conocimiento de la fisiología de la enfermedad puede incorporarse a modelos matemáticos que indican probabilísticamente los riesgos de las inmersiones acuáticas. Para desarrollar dichos modelos se ha recogido información de cientos de inmersiones por medio de computadoras que llevan los buzos entre su equipo.

Estas computadoras registran la profundidad de manera precisa y continuamente actualizas cálculos de nitrógeno en los tejidos, transfiriendo la información a computadoras en la superficie.

El desafío de las próximas décadas es el perfeccionamiento de los modelos para que extiendan su cobertura y minimicen los riesgos. Ya se ha pagado bastante caro la información de cómo el cuerpo del hombre responde a las fuerzas para las que no está diseñado cuando traspasa sus limites hacia el espacio exterior o hacia las profundidades oceánicas.

La Presion Atmosférica Experiencia de Torricelli Concepto Definicion

LA MEDICIÓN DE LA PRESIÓN ATMOSFÉRICA POR TORRICELLI

Todos sabemos que existen varios tipos de presión; cualquiera comprende por ejemplo, la presión que realiza un dedo apoyado apretadamente sobre alguna cosa. Esta presión es igualmente aplicable a los sólidos, a los líquidos y a los gases. De la misma forma que se han hallado medios especiales para medir la gravedad y el peso específico de un cuerpo, también se inventaron medios especiales para medir las presiones.

Cuando se habla de los tres estados de la materia —sólido, líquido y gaseoso— no se hace hincapié en que dos de ellos se parecen entre sí bastante más que el tercero. El agua es muy diferente del aire, pero ambos gozan de la propiedad de fluir. En el sólido existen fuerzas que mantienen unidas las moléculas, de manera que su forma se conserva pero la forma del aire y del agua varían constantemente, porque tanto uno como otra fluyen. En el lenguaje científico, tanto los líquidos como los gases se denominan fluidos. Ahora bien, en todo fluido existe una cierta presión; conocemos perfectamente un ejemplo, ya que siempre hemos soportado la presión del aire, que se denomina presión atmosférica, es entre todas las presiones fluidas, la más importante para nuestra existencia.

Ante todo, cabe decir que en el inmenso océano de aire que nos rodea, existe presión fluida; la consecuencia más importante de esta presión es nuestra respiración. Al respirar, ejecutamos un movimiento que tiende a vaciar nuestros pulmones, pero por estar éstos en comunicación con el aire exterior, la presión atmosférica hace que éste penetre en el espacio que ha quedado libre. Es, pues, evidente que sin la presión atmosférica no nos sería posible respirar.

En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y rebotando caóticamente. Esta agitación frenética hace que los gases se expandan hasta ocupar todo el lugar disponible en un recipiente. Nuestro planeta está envuelto por una capa de gases a la que llamamos atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la Tierra restringe su expansión.

Estamos sumergidos en un “océano de aire”, una capa gaseosa que, como una cáscara de manzana (tan fina es), recubre el planeta. En forma similar a como lo hace un liquido, el peso del aire sobre la superficie terrestre ejerce una presión, la presión atmosférica. A diferencia de los líquidos, los gases son compresibles: como su densidad puede variar, las capas superiores de la columna de aire comprimen a las más bajas.

En los lugares más profundos de la atmósfera, es decir a nivel del mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece a unos 40 Km. de altura. La capa baja, la tropósfera, presenta las condiciones necesarias para la vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del aire total de la atmósfera.

La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de superficie (1 Kg/cm²) pero, sin embargo, no lo notarnos (motivo por el cual, por miles de años, los hombres consideraron al aire sin peso). ¿Cómo es que los animales y las personas que están en la Tierra pueden soportar tamaña presión?

El aire ejerce su presión en todas direcciones (como todos los fluidos y los gases), pero los líquidos internos de todos esos seres ejercen una presión que equilibra la presión exterior. En este hecho se basa el mecanismo de esterilización por vacío: para eliminar los microorganismos de una muestra (alimento, instrumental, etc.), se la coloca en un recipiente del cual se extrae el aire. La presión exterior es reducida y los fluidos internos de las bacterias, que estaban sometidas a la presión atmosférica, se expanden, haciendo que éstas “revienten”.

Si se extrae el aire de un recipiente, la presión atmosférica lo aplastará, a menos que el recipiente sea suficientemente rígido.

Al apretar una sopapa (para destapar cañerías) contra una superficie pulida se aplasta y queda sin aire. Cuando, por acción de las fuerzas elásticas, la sopapa recupera su forma inicial, queda un vacío parcial en el interior y la presión atmosférica exterior la mantiene adherida a la pared. Del mismo modo, las patas de las moscas tienen pequeñas ventosas que les permiten caminar por paredes y techos sin caer al piso.

El funcionamiento del gotero obedece al mismo fenómeno. Al apretar la perilla de goma creamos un vacío parcial. Cuando sumergimos el tubito en el liquido y soltamos la perilla, la presión atmosférica que se ejerce sobre la superficie libre del liquido lo obliga a subir por el tubo hasta la región de menor presión dentro de la perilla.

Experiencia de Torricelli:
En 1643, el físico italiano Evangelista Torricelli ideó un procedimiento para medir la presión atmosférica.

¿Por qué el mercurio no descendió más? El tubo no se yació porque el aire exterior presionaba sobre el mercurio de la cubeta (en cambio, en la parte superior del tubo se produjo vacío). La presión ejercida por la atmósfera en el punto Q es igual a la presión en R, ya que ambos puntos están al mismo nivel en el mismo fluido. Es decir que la presión que la columna de aire de casi 40 km de altura (la atmósfera) ejerce sobre la superficie libre del mercurio (pQ) es igual a la que ejerce la columna de 76 cm de mercurio (pa) , entonces:

Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa

Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb = 0,75 Torr).

1 atm = 760 mm Hg = 760 Torr

Esta experiencia logró explicar por qué había un límite de profundidad para extraer el agua de las minas: la atmósfera no ejerce una presión ilimitada, sólo alcanza a sostener una determinada altura de agua.

La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama barómetro.

Poco después de la experiencia de Torricelli, Blaise Pascal predijo que la presión atmosférica debe disminuir cuando se asciende por una montaña, ya que la columna de aire soportada es cada vez menor. Su cuñado se encargó de hacer la experiencia y comprobar la hipótesis en 1658. A medida que ascendía al monte Puy de Dome observó el descenso de la columna mercurial del barómetro (que desde entonces pudo ser usado también como altímetro).

Pero, ¿cuál es la relación entre la presión atmosférica y la altura? Si la densidad del aire fuera uniforme, la presión disminuiría proporcionalmente con la altura. Podríamos afirmar, por ejemplo, que “la presión disminuye 1 Torr por cada 11 metros que nos elevamos”. Pero tengamos presente que las capas más bajas de la atmósfera están más comprimidas por lo que, conforme subimos, el aire se va enrareciendo (se hace menos denso). Por lo tanto, cuanto más alto estemos, más se necesitará subir para que la presión disminuya 1 Torr.

El peso total del aire en la atmósfera se ha estimado en unos 5.000 billones de toneladas, que determinan una presión aproximada de 1,033 Kg. por centímetro cuadrado a nivel del mar. La presión no se siente porque se ejerce igualmente desde todos los ángulos sobre el cuerpo. Sin embargo, la presión del aire puede demostrarse extrayendo todo el aire de un envase, de modo que se produzca el vacío en su interior. Como la presión del aire exterior es más grande que la interior el envase se contraerá y cederá. En la atmósfera la presión del aire varía y se mide con barómetros. Las variaciones son importantes para realizar pronósticos del tiempo, porque las diferencias de presión se asocian con los

Torricelli Evangelista Físico Italiano

Fue físico Evangelista Torricelli, que supuso que el agua subía por los tubos, cuando funcionaban las bombas, por efecto del peso del aire, es decir, de la presión que la atmósfera ejercía sobre la superficie libre del agua. Pero pensó, además, que esa presión debía tener un límite tal que no permitía elevar aquel líquido a más de 10 metros y, reflexionando, supuso que un líquido como el mercurio, que tiene un peso específico unas 13,6 veces mayor que el agua, se elevaría a tan sólo unos 76 centímetros. Torricelli comunicó sus ideas a otro discípulo de Galileo Galilei, de apellido Viviani. Este realizó el experimento hoy conocido con el nombre de experiencia de Torricelli, que confirmó aquellas ideas.

CICLONES Y LOS ANTICICLONES: El cuerpo humano se adapta a la vida en un océano de aire del mismo modo que los peces se adaptan a las tremendas presiones del fondo del mar. Sin embargo, la presión atmosférica decrece sobre el nivel del mar.

A 7.500 metros de altura la presión del aire es de 0,42 gramos por centímetro cuadrado, alrededor de dos quintas partes de la presión a la que está adaptado el cuerpo, y a los 18.000 metros la presión es sólo la de un décimo de la que se ejerce al nivel del mar. Cuando la presión del aire ha descendido mucho, el cuerpo no recibe oxígeno suficiente. De ahí que los aviones posean cabinas presurizadas, que hacen más cómodo el vuelo. La presión del aire es la fuerza utilizada en las BOMBAS. Comprimido, el aire llegó a ser una útil fuente de energía. Por ejemplo, el aire comprimido se usa en las herramientas naúticas.

PARA SABER MAS…
Qué es el barómetro

El tubo de Torricelli aplicado a la medición de la presión atmosférica, forma ni más ni menos lo que se llama un barómetro, que significa precisamente “medidor del peso”; con el barómetro medimos, pues, el peso atmosférico. Cuando lo consultamos, nos contentamos con ver si la aguja marca buen tiempo o variable, e lo que sea en cada caso, como si el barómetro poseyera el don de la profecía; pero lo que hacemos en realidad, aunque apenas nos demos cuenta de ello, es medir la presión atmosférica, que se indica bajo aquellos signos. La aguja del barómetro indica la altura en milímetros de la columna de mercurio.

La relación entre el barómetro y el tiempo reside en el hecho de que la presión atmosférica es lo que decide, en gran parte, el tiempo que hará. Si la presión atmosférica es muy alta, hará buen tiempo; si es muy baja, entonces el aire correrá desde otro punto donde la presión sea más fuerte; este desplazamiento del aire es el viento, y el viento puede producir la lluvia.

He aquí por qué el barómetro predice con bastante exactitud el tiempo; si no lo hace con mayor precisión, es porque la presión atmosférica no es la única causa de su variación.

Por lo demás, si bien como profeta del tiempo no siempre es digno de crédito, sus servicios para medir las alturas son excelentes. Dado que obedece a la menor presión atmosférica, si se aplica el barómetro a un instrumento de precisión especial, indicará con exactitud matemática a qué altura se encuentran el alpinista o el aviador que se sirvan de él.

baromtroEl barómetro más difundido es igual al tubo del instrumento de Torricelli, pero su extremo suele estar doblado en forma de U, en lugar de penetrar en una cubeta de mercurio.

Si hacemos flotar una bolita de hierro en la superficie del mercurio por la parte abierta del tubo, podrá adherirse a ella con facilidad un pequeño dispositivo con una aguja que nos indique la altura de la columna barométrica, señalada con las palabras: bien tiempo, estable, variable, lluvia, etc.

Existe otro tipo de barómetro que no tiene mercurio ni ningún otro líquido, llamado barómetro aneroide, que significa precisamente “sin líquido”. Consiste en una sencilla caja de metal, redonda y aplanada, dentro de la cual se ha hecho el vacío; la parte superior e inferior de la caja se aproximan entre sí, más o menos, según sea la presión atmosférica; un indicador de la medida de la presión, y aunque sus indicaciones no sean muy precisas, son, en todo caso, suficientes.

Si calentamos un barómetro corriente de los de mercurio, éste se dilatará, ocupando un mayor espacio en el tubo; por lo tanto, si deseamos obtener indicaciones exactas, debemos tener en cuenta también la temperatura. Por esto, a un buen barómetro va siempre unido un termómetro. Para fabricar un buen barómetro, es necesario hacer hervir antes el mercurio para librarlo al máximo del aire y del vapor acuoso; si se descuidase esta precaución, el aire y el vapor de agua ocuparían el vacío de Torricelli impidiendo el oportuno ascenso del mercurio.

La presión atmosférica se calcula en 1 kilo y 33 gramos por centímetro cuadrado; por lo tanto, cada centímetro cuadrado de nuestro cuerpo soporta este peso, tan considerable, que si sólo presionara hacia abajo nos aplastaría literalmente.

Grandes Matemáticos Que Aportaron Ideas A La Fisica:

matematicos famosos

B. Pascal E.Torricelli C. Huygens D.Bernoulli I. Newton

 Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en el futuro?.

El investigador científico plantea la pregunta fundamental: ¿Qué clase de Universo es éste donde yo vivo? Es muy improbable que alguna vez llegue el tiempo en que los humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad. Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. En este capítulo estudiaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Científicos, Ciencia y Física
1-Los científicos buscan explicaciones para los fenómenos naturales.
Sobre todo para satisfacer su propia vehemente curiosidad, el Profesor Roentgen investigó la causa del inesperado brillo de las substancias químicas de su laboratorio. Fahrenheit, al estudiar el punto de ebullición del agua, llegó a conocer mejor el proceso de la ebullición. Torricelli, al intentar comprender el funcionamiento de las bombas, pudo mejorarlas. Cada uno de estos físicos fue inquietado por preguntas y problemas de los que no tenía una inmediata respuesta. Cada uno de ellos trató de encontrar explicaciones para lo que había observado.

Estos tres como todos los científicos, tienen algo en común: buscan explicaciones para los fenómenos naturales.
Si esto hacen los hombres de ciencia, ¿todo el que busca explicaciones es un científico? No necesariamente. Muchas personas buscan explicaciones por los que podríamos llamar caminos “no científicos”. Puede ser que traten de adivinar la respuesta o tomen para ello alguna palabra de otro, pero sin pensar por sí mismos. Esta clase de actividad no es ciencia. Hay veces, sin embargo, cuando se busca tesonera y cuidadosamente la explicación de un fenómeno natural. Entonces se está participando en la Ciencia, al menos por algún tiempo.

2-Lo ciencia tiene dos aspectos.
Acaso el lector se sorprenda de que la Ciencia es actividad, como muchos otros, el lector, habrá pensado que la Ciencia es un conjunto de conocimientos difíciles de comprender. Es superfluo decirlo, la Ciencia debe incluir conocimiento y actividad. El conocimiento lo produce la actividad investigadora. Muchos estudiantes estudian sólo el conocimiento y prestan poca o ninguna atención a los medios para descubrirlo. Aprenden en realidad sólo una parte de la Ciencia y desprecian la parte que debería ayudarles más, si desean convertirse ellos mismos en científicos. Omiten la parte que más puede ayudarles a resolver sus propios problemas personales diarios. ¡Sobre todo se pierden la parte más atractiva de la Ciencia!

3- La investigación científica incluye muchas actividades.
Roentgen
, Pascal, Torricelli y otros mencionados en este sitio estuvieron envueltos en muchas y diferentes clases de actividades. Torricelli resolvió su problema de bombeo incluyendo el comportamiento de la atmósfera. Roentgen estuvo suficientemente alerta como para notar un hecho que para muchos otros hubiera pasado inadvertido. Fahrenheit tuvo el valor de dudar lo que algún otro afirmaba y la persistencia de investigar por sí mismo. Pascal y su cuñado, dedicaron mucho esfuerzo a hacer medidas con el barómetro de mercurio. Torricelli fue notablemente hábil para encontrar el modo de explorar el espacio vacío en la parte superior de su barómetro. Todos estos hombres eran curiosos y todos ellos tomaron esmeradas notas de sus cuidadosas observaciones. Como todos los científicos formularon hipótesis para guiar su trabajo, inventaron modos de probar sus hipótesis y, si fue necesario, cambiaron sus ideas para ajustarías a las nuevas observaciones.

Algunas personas piensan que los hombres de ciencia siguen una serie de pasos determinados para llevar a cabo su investigación. Pero la mayoría de los científicos no piensan así. En realidad, siguen procedimientos que dependen del problema a resolver, de los materiales disponibles y también del científico mismo. Si se pusieran cinco científicos a trabajar en siete problemas, ¡llegarían a tratarlos de 35 modos diferentes ! Muchos de estos procedimientos serán útiles y algunos pueden ser excelentes. Si el lector está buscando e¡ método científico para tratar un problema, ¡cese en su búsqueda! Del mismo modo, como puede haber muchas maneras de solucionar un rompecabezas o de componer un grifo o de conseguir el automóvil familiar para usarlo por la tarde, así hay muchos modos para plantear y resolver los problemas científicos.

4- La ciencia es un proceso intelectual.
¿Está incómodo el lector porque hasta aquí no hemos hecho mucho énfasis en las herramientas de la Ciencia? ¿Qué hay de los microscopios, los reactores nucleares, los aparatos de medida, la vidriería química y cosas semejantes? ¿Dónde está su lugar? Naturalmente, gran parte de la Ciencia incluye el uso de dicho equipo, y al principio, parece que una gran parte de la Ciencia surge en el laboratorio. Pero cuando uno se detiene a pensarlo, probablemente, esté de acuerdo que, en último análisis, la Ciencia se desarrolla en la mente de las gentes. La Ciencia es una actividad que incluye inteligencia, es un proceso intelectual. Mucha ciencia se crea en nuestro cerebro. ¡Los laboratorios sin gente que piense están realmente vacíos!

5- La ciencia está relacionada con la tecnología.
Mucha gente confunde los términos Ciencia y Tecnología. Piensan que la Ciencia es un asunto de puentes de kilómetros de largo, de drogas maravillosas, televisión a colores y cohetes a la Luna. Por supuesto la Ciencia está ahora incluida en estas realizaciones, pero hay una diferencia. Mientras la Ciencia es una búsqueda de explicaciones, la Tecnología es una búsqueda para mejorar ciertos productos y de los métodos para prepararlos. Mientras que la Ciencia trata, principalmente, del establecimiento de los principios fundamentales, la Tecnología se ocupa, en primer lugar, de la aplicación de estos principios.La Ciencia y la Tecnología están estrechamente relacionadas. Los científicos están casi inermes sin aparatos científicos. Por otro lado, la Tecnología depende, evidentemente, de la Ciencia para la formulación de los principios científicos que aplica.

6-La ciencia tiene profundo efecto sobre la gente.
Los avances científicos y tecnológicos cambian de hecho el modo de pensar del hombre. Si el hombre se contempla a sí mismo, no viviendo en una Tierra que es el centro del Universo, sino habitando un planeta mediano a alguna distancia de una estrella de segunda magnitud, debe verse con una perspectiva muy diferente (contribución debida, entre otros, a Copérnico). Cuando la ilimitada energía nuclear de los reactores se acerque cada vez más a ser una realidad, habrá cambios decisivos en el valor de la propiedad, en las formas de trabajo, transporte y fabricación y en las relaciones internacionales. Quizá lo más importante es que el hombre aprendiera —o está aprendiendo— que puede aplicar su inteligencia para la resolución del gran número de problemas a los que se enfrente.

7-La Física es una ciencia básica.
La Física es la rama de la Ciencia que estudia la energía y sus transformaciones. En la práctica, sin embargo, también trata de la naturaleza de la materia, especialmente de su estructura íntima, pues sabemos ahora que los ordenamientos moleculares, atómicos y subatómicos también incluyen energía. Así la Física podría definirse como el estudio de la energía, la materia y sus cambios, con énfasis en la energía. La Física es una ciencia básica, que sirve de fundamento y está íntimamente relacionada con las demás ciencias teniendo, por supuesto, muchas áreas comunes con ellas. La Química, por ejemplo, puede definirse como el estudio de la materia, la energía y sus cambios, con énfasis en la materia.

Fuente Consultada: FÍSICA Fundamentos y Fronteras Stollberg-Hill

 

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

 

Plataforma Petrolera Funcionamiento Caracteristicas La Vida en el Mar

Existen grande construcciones civiles de acero a las que no se les puede negar valores formales de notable interés y una incidencia excepcional sobre la transformación del paisaje (que por fortuna no siempre es degradación). En este aspecto, la plataforma de barrenado de la BP en el mar del Norte entra, sin duda,, dentro de la categoría de estas realizaciones.

Plataforma Petrolera Funcionamiento Caracteristicas La Vida en el MarCuando, pocos minutos después de las 7 de la tarde del miércoles 3 de julio de 1974, en aguas de Gran Bretaña, el Graythorp I de la BP fue situado en aguas profundas, a 110 millas de Aberdeen, se asistió a un gran acontecimiento en el campo de la ingeniería marina. Para los pocos privilegiados que siguieron el acontecimiento, la instalación de esta estructura constituyó una visión verdaderamente espectacular.

La historia de estas plataformas está estrechamente vinculada, como es natural, a la otra historia, relativamente reciente, de la exploración y explotación de los yacimientos petrolíferos existentes en los fondos marinos. Los hidrocarburos líquidos (petróleo) y gaseosos (metano) constituyen la principal fuente de nuestra civilización industrial. Pero las reservas de “oro negro” de los yacimientos terrestres hasta ahora conocidos se encuentran en vías de rápido agotamiento.

Y de ello se saca una conclusión a todas luces evidente: si no se encuentran y se explotan nuevos yacimientos, la colosal maquinaria de la civilización industrial se quedará sin “carburante” dentro de cuarenta o cincuenta años como máximo. Por otra parte, de momento no parece muy probable que la nueva fuente de energía, la nuclear, pueda sustituir totalmente a los hidrocarburos en tan breve espacio de tiempo; de ahí la necesidad absoluta de intensificar las exploraciones de nuevos yacimientos.

Y en este aspecto ya no queda otro recurso que efectuarlos en el fondo de los mares y de los océanos, ya que la superficie terrestre ha sido explorada con tal fin a todo lo largo y a lo ancho de las zonas accesibles. Así empezó, en la última posguerra, la era de las exploraciones de hidrocarburos llamadas off-shore, término inglés, hoy día de uso internacional, que podría traducirse por “costa afuera”.

Las exploraciones off-shore se realizan en franjas de mar costeras, donde los fondos son más idóneos para este fin y las comunicaciones con tierra firme más fáciles. En la práctica, la técnica actual de las exploraciones off-shore permite la prospección de casi toda el área de las “plataformas continentales”, entendiendo con este término el “zócalo”, el ligero declive, en el que una tierra emergida se hunde gradualmente en el mar.

Es una zona muy amplia, calculada en 28 millones de km2. Sólo una parte de ella (7 millones de km2) ha sido explorada hasta ahora con tales fines. Sin embargo, ya en 1970, los hidrocarburos extraídos del fondo del mar constituían el 20 % del total mundial. La primera plataforma de perforación fue instalada en 1947 en el golfo de México. Pero el acontecimiento más importante de estos últimos años en Europa, respecto a la citada exploración de hidrocarburos en los fondos marinos y que ha llamado la atención de la opinión pública mundial es, sin duda alguna, el realizado en el mar del Norte.

Tras el “boom” del metano de Groninga, Holanda, los geólogos empezaron a sospechar que también bajo las tempestuosas aguas del mar del Norte pudieran ocultarse yacimientos de metano y de petróleo. Y si el depósito de gas de Groninga estaba considerado como el más importante hasta ahora conocido en el mundo occidental, la certeza de que pudiera ocurrir otro tanto en el mar del Norte dependía de los resultados de las exploraciones de los expertos de todo el mundo que allí se habían reunido.

El mar del Norte cubre casi por entero un banco continental formado por un espesor considerable de roca sedimentaria, y es precisamente en este tipo de roca, que a lo largo de los tiempos llenó las cuencas sedimentarias formadas por depresiones de corteza terrestre de muchos kilómetros de longitud y de profundidad, donde se encuentran los hidrocarburos líquidos y gaseosos. En Holanda y en la vecina Alemania se ha hallado no sólo metano, sino también yacimientos petrolíferos de pequeña y mediana categoría. Por lo tanto, la posibilidad de que pudieran encontrarse también bajo el mar del Norte constituía una hipótesis muy bien fundamentada.

La explotación de los eventuales yacimientos del citado mar podría permitir a Gran Bretaña, entre otras ventajas, y relativamente en breve tiempo, una autonomía casi total desde el punto de vista de la producción energética. Así, pues, se realizaron profundos estudios sobre la concreta estructura geológica de esta cuenca, estudios que permitieron clasificarla como una zona petrolífera en potencia. Geográficamente, el mar del Norte está dividido en dos zonas: la parte meridional, más bien estrecha, donde las condiciones del mar son menos favorables, y la septentrional, más ancha y abierta sobre el Atlántico.

Vista Aerea de una Plataforma Petrolera en México

La variabilidad extrema de las condiciones atmosféricas hace notablemente difícil, en cualquier parte de dicho mar, establecer las previsiones meteorológicas, a pesar de que en estos últimos años se hayan conseguido notables progresos en las previsiones a largo plazo. Añádase a esto que, si el medio marino era poco conocido, la naturaleza de los fondos marinos lo era aún mucho menos, lo que forzosamente había de plantear graves problemas a la estabilidad de las instalaciones y a la colocación de las conducciones.

En consecuencia, las instalaciones debían ser proyectadas de modo que hicieran frente a este conjunto de condiciones ambientales negativas. El término “plataforma”, con el cual habitualmente se denominan las susodichas instalaciones da, sin embargo, una idea falsa de estos colosos marinos que de planos no tienen nada.

El aspecto imponente de estas obras, y en particular de la Graythorp I de la BP, es excepcional; la estructura tubular de acero sobre la que se instalan una serie de equipos de gran complejidad, establece un parentesco, también formal, con la tradición de la ingeniería ochocentista; pero, por otra parte, la perfección y novedad técnica de las maquinarias, su diseño y su distribución, que tiene en cuenta la explotación en mayor escala y más funcional del espacio disponible, hacen de ellas unas de las más avanzadas realizaciones de la tecnología y la arquitectura modernas.

Como la perforación de un pozo en el fondo del mar no difiere técnicamente, por lo menos en la operación de excavación propiamente dicha, de lo que se hace con el mismo fin en tierra firme, el problema nuevo, hoy por cierto brillantemente resuelto, consistía en establecer las condiciones técnicas para la perforación partiendo de la superficie del mar y actuando a través del diagrama de decenas o cientos de metros de agua. Para esto era preciso crear artificialmente sobre la superficie marina una zona que pudiera contener todas las máquinas para la perforación, además del personal empleado en los trabajos.

Se trata, por tanto, de verdaderos pueblos situados en medio del mar. El equipo completo de estas plataformas comprende: por un lado, perforadoras dirigidas eléctricamente, bombas tubulares, depósitos para materiales químicos, máquinas para la producción primaria, que comprenden divisores de gas-petróleo y bombas de emisión con motor de turbina, instrumentos de refrigeración para la producción condensada y generadores de energía, con un total de 10 MW; por otro, los laboratorios, las cocinas, los locales de descanso, la sala cinematográfica y los depósitos de víveres, piezas todas ellas con aire acondicionado.

También hay una o más estructuras en forma de torre que más tarde serán las torres de perforación, con mesas giratorias, grandes válvulas, la pila para el limo y, finalmente, la zona de aterrizaje para los helicópteros. Toda esa formidable maquinaria se ha estructurado de forma que ocupe el menor espacio posible.

Por otra parte, era evidentemente necesario que las turbinas no descargasen en la zona de perforación, que la antena de radio estuviera dirigida hacia tierra firme y que la zona ocupada por los aposentos estuviera situada en el lugar más tranquilo posible; al mismo tiempo, la situación de cada parte individual debía tener en cuenta que la distribución de las cargas se realizaría de forma uniforme sobre toda la estructura de sustentación.

La división Menck de la Koehring Co. construyó, para la Graythorp I, el taladro más grande del mundo hasta entonces realizado; pesa 255 toneladas, tiene una potencia de golpe de 87.500 mkg y su golpe máximo es de 1,25 m, con una capacidad de 35 percusiones por minuto. Él proyecto final de toda la plataforma se realizó teniendo en cuenta las circunstancias ambientales, las cargas y las condiciones del subsuelo bajo la superficie del mar y además sufrió, respecto al original, muchos cambios; en efecto, al principio se establecieron 36 pozos y dos taladros, pero consideraciones sucesivas sobre el abastecimiento y los depósitos hicieron que se descartara esta primera hipótesis, ya que, por una parte, la limitación de espacio no permitía tener a bordo suficientes suministros y por otra el mal tiempo en el mar del Norte hacía imposible el aprovisionamiento de materiales de barrenado.

El actual proyecto es de 27 pozos y un solo taladro, ya que hay un depósito suficiente para la estiba del crudo extraído en 30 días de perforación. La eficacia, tanto de ésta como de las demás plataformas, y, por lo tanto, la posibilidad de desarrollar las funciones esenciales para las cuales han sido realizadas, se ven amenazadas por un enemigo implacable y multiforme, representado por la corrosión a la que se ven sometidas las estructuras de acero. El agua de mar constituye ya en sí un temible enemigo del acero, como de la mayor parte de los metales, incluso de los más nobles que el hierro; y el hecho de que además esta agua esté casi totalmente contaminada, en distinta medida, por productos más o menos nocivos, contribuye a empeorar en gran manera la situación.

La ejecución de todas las tareas, incluso de las más sencillas, requiere siempre condiciones meteorológicas favorables. Las inmersiones, en efecto, se ven obstaculizadas a menudo por el estado de la superficie del mar y por la turbulencia de las mareas; no es posible sumergirse cuando la altura de las olas supera los dos metros, y éstas son unas condiciones precisamente muy habituales en el mar del Norte durante la estación invernal, que dura unos siete meses.

La visibilidad del fondo, en verano, varía entre 9 y 12 metros si el tiempo es bueno; en invierno, a causa de la acción de las mareas sobre las arenas y sobre el limo, esta visibilidad puede reducirse a pocos centímetros, determinando una situación que hace casi imposible cualquier actividad.

Por ello no son raros los retrasos notables en el cumplimiento de las distintas tareas y, a menudo, durante el invierno, los hombres rana deben esperar inactivos durante semanas enteras antes de que una pausa en las tempestades les permita reanudar sus habituales trabajos. Las condiciones en que se ven obligados a trabajar estos hombres rana no son más que un aspecto de la vida que se desarrolla sobre estas plataformas; su tripulación, por completo masculina, está formada por unas 40 ó 70 personas, y está obligada a permanecer en la instalación durante un mes aproximadamente.

Esta permanencia suele verse prolongada a menudo, y a veces durante bastantes días, por las imprevistas condiciones atmosféricas en el mar del Norte, sujetas a cambios tan repentinos que escapan virtualmente a toda previsión meteorológica, haciendo imposible, incluso durante largos períodos, los transportes y los aprovisionamientos regulares. Debido a ello deben utilizarse tipos de buques especiales, capaces de servir a las plataformas en alta mar y de permitir también el intercambio del personal de mantenimiento.

Como vemos, la vida de los servidores de esos monumentales “edificios” anclados en medio del mar es tan admirable como las mismas construcciones.


Hundimiento Plataforma Petrolera-Golfo de México