La Energía del Sol

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los “sistemas de conversión de energía eólica”, sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan “no susceptible de ser dividido”. Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Orígenes de la Ciencia Moderna y La Filosofía Renacentista

Orígenes de la Ciencia Moderna: Filósofos y Científicos

Si la primera parte del siglo XVII es un período de crisis en todos los campos, crisis que prolongan las conmociones del Renacimiento, en la segunda mitad del siglo se proyectan las tentativas de solución.

A la anarquía, a las luchas políticas y sociales, responde el ideal absolutista, el cual alcanza la perfección histórica con Luis XIV, que inspira tanto a los soberanos españoles como a los Estuardo, al emperador como a los pequeños príncipes alemanes.

Al caos y la confusión, nacidos de las ruinas del viejo sistema aristotélico como consecuencia de los trabajos y las investigaciones de Bacon y Galileo, se opone la tentativa de Descartes, buscando un nuevo método científico para elaborar una doctrina racional de conjunto del universo.

El ser humano siempre quiso saber qué ocurrió al principio de todo y, en consecuencia, no tuvo reparo en intentar ver más allá para encontrar la luz. Fue el italiano Galileo Galilei (1564-1642) quien preparó el camino de la ciencia moderna y supo convertir el catalejo del holandés Hans Lippershey (1570-1619) en un telescopio refractor para la observación de los cuerpos celestes en 1609, justo el mismo año en que el astrónomo alemán Johannes Kepler (1571-1630) presentaba sus primeras dos leyes del movimiento elíptico planetario en el libro Astronomía nova.

El físico y matemático inglés Isaac Newton (1642-1727), inventor del primer telescopio de reflexión en 1668, sentó las bases de la ciencia moderna con sus descubrimientos en óptica clásica (la naturaleza de la luz blanca o luz del Sol por medio de un prisma de cristal) y la mecánica clásica (la formulación de las tres leyes del movimiento y la ley de la gravitación universal). Además desarrolló el cálculo infinitesimal en el campo de la matemática pura.

Ya en la segunda década del siglo XX, el físico alemán Albert Einstein revolucionó el sistema del mundo newtoniano con la teoría general de la relatividad y dos predicciones fundamentales: la curvatura del espacio-tiempo alrededor de un cuerpo y el llamado efecto de arrastre de marco, por el que la Tierra, en su rotación, curva el espacio-tiempo. Poco después, el universo fue visto como un todo en expansión gracias a la teoría del Big Bang o Gran Explosión, que se ha establecido como la teoría cosmológica más aceptada.

En filosofía Descartes se lo considera como fundador de la filosofía moderna, quien tendrá una gran influencia después de su muerte (1650). A la copiosidad barroca del arte durante este período de transición, el clasicismo quiere imponer las reglas universales del buen gusto y de la mesura.

En todos los aspectos, tanto en el orden económico, con el mercantilismo estatal, como en el orden militar, en el que los ejércitos disciplinados por la monarquía absoluta quieren reemplazar a las bandas de mercenarios y a los condottieros, todavía dominantes en el trascurso de la Guerra de los Treinta Años, se pueden discernir los esfuerzos hacia el orden y la estabilización.

El triunfo no será más que aparente: detrás de las armoniosas fachadas clásicas y las magnificencias del arte oficial, aparecen, desde finales del siglo, otras crisis, otras con tradicciones que anuncian el período revolucionario de la «Ilustración».

DESCARTES Y EL FUNDAMENTO DEL RACIONALISMO
Renato (René) Descartes (1596-1650) pertenecía a la pequeña nobleza; después de haber cursado sólidos estudios eligió la carrera de oficial del ejército, sirviendo primeramente en Holanda, bajo las órdenes de Mauricio de Orange, y en Baviera, al comienzo de la Guerra de los Treinta Años.

No cesaba de meditar y trabajar en las matemáticas; en Alemania, en un cuchitril al lado de una estufa, tuvo la célebre «iluminación» que le reveló las ideas directrices de su filosofía. Después de una permanencia en Italia, se estableció en Holanda (1629), donde el pensamiento   podía   desenvolverse   más   libremente. Residió allí veinte años, interrumpidos por breves estancias en Francia, enteramente   consagrados   a   la   ciencia   y   a   la filosofía.

Filósofo René Descartes

 En el año 1637 apareció el «Discurso del Método», escrito en francés y no en latín como era costumbre en la época para este género de obras. Rápidamente célebre, admirado por la princesa Isabel, hija del Elector Palatino, fue invitado a Estocolmo por la reina Cristina, la cual le exigía que se levantara todos los días a las cinco de la mañana para enseñarle filosofía.  ¡Su actividad de reina no le debaja libre otros momentos! El duro clima sueco fue la causa de la pulmonía que llevó a la tumba a Descartes   a  los  cincuenta  y  cuatro  años.

Trató de sistematizar todos los conocimientos de su tiempo, de crear una ciencia universal explicando los fenómenos de la naturaleza por medio del razonamiento matemático. Sabio en todo, hizo investigaciones de óptica, creó la geometría analítica, se interesó por la fisiología.

Su método comenzó por la duda radical, la «tabla rasa» de las ideas recibidas, la repulsa del principio de autoridad, para comenzar a partir de la primera certeza resumida en la célebre fórmula: «Pienso, luego existo». Se ajusta a cuatro reglas esenciales:

1)no aceptar nunca, más que ideas claras y distintas, que la razón tenga por verdaderas;

2)dividir las dificultades en tantas partes como sean necesarias para resolverlas (análisis);

3)partir de lo simple para, llegar a lo complejo (síntesis);

4)examinar todo por completo para estar seguro de no omitir nada.

No es cuestión de examinar aquí al detalle una obra que aborda los problemas universales de las ciencias y de la filosofía. A pesar de que Descartes intentó demostrar que las ideas de perfección y de infinito no pudieron ser puestas en el hombre, imperfecto y limitado, más que por Dios, sus explicaciones rigurosamente deterministas del universo, del hombre y de sus pasiones, podían excluir la divinidad y por ello rápidamente se hizo sospechoso (a pesar del entusiasmo de Bossuet) a los ojos de ciertos teólogos.

Y es verdad que inspiró directamente a los materialistas del siglo siguiente. Pascal lo vio muy claro cuando escribió en sus «Pensamientos»: «No puedo perdonar a Descartes; hubiera querido poder prescindir de Dios en toda su filosofía; pero no pudo evitar hacerle dar un papirotazo, para poner al mundo en movimiento. Después de esto, Dios no sirve para nada».

Los contemporáneos se apasionaron por sus teorías sobre el pensamiento y la extensión, los torbellinos, la materia sutil, los animales-máquinas, etc… Por su tentativa de reconstrucción total de las leyes del universo, basándose en algunos principios, se ligaba al espíritu de ordenación del absolutismo. Por su método, principalmente la duda sistemática, abría el camino al pensamiento libre, aunque se defendía siempre de ser ateo. El cartesianismo iba a tener importantes derivaciones.

SPINOZA Y LEIBNIZ Entre los espíritus cultivados se mantenía numeroso contacos , por medio de los libros, viajes y las correspondencias. La lengua  francesa  se extendía  y  sustituía  al latín como lengua erudita, y las Provincias Unidas  eran  un punto  de  confluencia  de ideas.

Los grandes centros intelectuales se desplazaban:  primero fue Italia,  hasta comienzos del siglo xvn, después Francia, y, al final del siglo, los Países Bajos e Inglaterra, donde Newton y Locke iban a coronar los  progresos científicos  y filosóficos.

Las ciudades holandesas que habían albergado a Descartes, con sus universidades, sus imprentas, su burguesía mercantil activa y cosmopolita, y su liberalismo, eran favorables a la floración de las nuevas ideas. En Amsterdam   nació   Spinoza (1632-1677), descendiente de judíos portugueses emigrados. La audacia y la originalidad de su pensamiento, influido por Descartes, le indispuso con  su  ambiente  tradicional (su padre quería hacerle rabino), siendo arrojado de la sinagoga.

Excluido del judaísmo, quedó desde entonces libre e independiente, rechazando las cátedras de la universidad, porque temía verse obligado a abdicar de su independencia; prefería ganarse la vida en La Haya puliendo lentes. En este caso tampoco podemos dar más que una breve reseña de su filosofía, expuesta en varias obras (entre ellas el «Tratado teológico político» y la «Etica»). Siendo, a su manera, un místico panteísta, rechazaba toda religión revelada y denunciaba las incoherencias y las contradicciones del Antiguo Testamento, el cual, según él, no había sido dictado por Dios, sino hecho por judíos deseosos de mostrar su historia y su religión bajo cierto aspecto, en relación con las necesidades históricas.

Lo mismo que Descartes, intentó dar, sin dejar de criticar los puntos de su teoría, una vasta explicación del mundo basada en la mecánica y las matemáticas, obedeciendo a una rigurosa lógica de las leyes de la necesidad, en la que asimilaba a Dios con la sustancia infinita, con la Naturaleza. Negaba la existencia de un Dios personal y del libre albedrío. «Nosotros creemos ser libres porque ignoramos las cosas que nos gobiernan. Si se pudiera tener una idea absoluta del orden general que rige la Naturaleza, se comprobaría que cada cosa es tan necesaria como cada principio matemático».

Quería analizar las pasiones y los sentimientos «como si se tratara de líneas, de superficies, de volúmenes».

Alemania produjo otro gran genio en la persona de Leibniz (1646-1716), nacido en Leipzig, agregado al servicio del Elector de Maguncia y después al del duque de Hannover. Pasó cerca de cuatro años en París, donde trató de disuadir a Luis XIV de intervenir en Alemania. Independientemente de Newton, inventó el cálculo infinitesimal (1684).

Su compleja filosofía está basada en la teoría de las «mónadas», elementos, átomos de las cosas, todas diferentes, creadas por Dios, que es la mónada suprema y quien ha regulado el universo dentro de una armonía preestablecida, agrupando las cadenas infinitas de las mónadas y su movimiento. Diferentes, incompletos, frecuentemente contradictorios, rebasados hoy, pero llenos de intuiciones geniales, todos estos sistemas tienen un punto común: una explicación total, rigurosa, científica, de la Naturaleza y de sus fenómenos, de Dios, de la sustancia, del alma, etc..

En un siglo, los progresos son considerables: el pensamiento humano no se inclina ya ante los dogmas y las tradiciones recibidas, sino que busca libremente por medio de su crítica descubrir las leyes que rigen el universo, como ya lo habían intentado los grandes filósofos griegos.

PRINCIPIOS DE LA CIENCIA MODERNA
Muchos pensadores eran, al mismo tiempo que sabios, matemáticos notables. Paralelamente a su obra filosófica y religiosa, Blas Pascal (1623-1662) establecía las bases del cálculo de probabilidades, demostraba la densidad del aire según las hipótesis de Galileo y de Torricelli, inventaba el barómetro, exponía las propiedades del vacío y de los fluidos, así como las de las curvas.

Otros investigadores, igualmente científicos, profundizaron en los descubrimientos hechos a comienzos del siglo: en medicina, después del inglés Harvey, médico de los Estuardo (muerto en 1657), que había construido una teoría revolucionaria sobre la circulación de la sangre y el papel del corazón, el bolones Malpighi (1628-1694), gracias a los progresos del microscopio, analizaba el hígado, los ríñones, los corpúsculos del gusto, las redecillas de las arteriolas, y comenzaba el estudio de la estructura de los insectos.

El holandés Leuwenhoek descubría los erpermatozoides y los glóbulos rojos de la sangre. Los dos chocaban todavía con los prejuicios tenaces de las universidades, en las que reinaba el aristotelismo que había rechazado los descubrimientos de Harvey. Moliere, en su «Enfermo Imaginario», hará, por otra parte, una cruel sátira de los médicos retrógrados.

cientifico del renacimiento

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

El mundo de lo infinitamente pequeño comienza a entreabrirse, aunque aún no sean más que tanteos en química y fisiología. Redi, médico del gran duque de Toscana, abordaba el problema de la «generación espontánea». Suponía que los gusanos no nacen «espontáneamente» de un trozo de carne en descomposición, sino de huevos que ponen moscas e insectos.

Sin embargo, la mayoría de la gente creía todavía en esta generación animal o vegetal, partiendo de pequeños elementos reunidos. El mismo Redi descubría las bolsas de veneno de la víbora, pero otros aseguraban que el envenenamiento era producido por los «espíritus animales» de la víbora que penetraban en la llaga hecha por la mordedura.

La ciencia comenzaba también a ocuparse de las máquinas: Pascal, Leibniz construían las primeras máquinas de calcular. Cristian Huygens (1629-1695) aplicaba a los relojes el movimiento del péndulo. Miembro de la Academia de Ciencias de París, pensionado por Luis XIV, tuvo que regresar a Holanda, su país natal, después de la Revocación del Edicto de Nantes.

Realizó importantes trabajos matemáticos, estudió la luz, presintió su estructura ondulatoria, desempeñó un papel decisivo en astronomía, tallando y puliendo los cristales de grandes lentes, lo que le permitió descubrir un satélite de Saturno, la nebulosa de Orion, así como el anillo de Saturno. Su ayudante, Dionisio Papin construyó la primera máquina de vapor en la que un émbolo se movía dentro de un cilindro (1687). Los ingleses iban a sacar aplicaciones prácticas para extraer el agua de las minas por medio de bombas. Por último, a finales de siglo, Newton formulaba las leyes de la gravitación universal.

“DIOS DIJO: HÁGASE NEWTON Y LA LUZ SE HIZO”

Esta cita del poeta Alexandre Pope muestra bien claro el entusiasmo que levantó el sistema de Newton, publicado en 1687 con el nombre de Philosophiae Naturalis Principia Mathematica. Isaac Newton (1642-1727), alumno y después profesor de matemáticas de la Universidad de Cambridge, terminó su carrera como «inspector de Monedas» y presidente de la Real Sociedad; fue también miembro del Parlamento.

físico ingles Newton

Isaac Newton

A la edad de veintitrés años lanzó las bases del cálculo diferencial, necesario para investigaciones profundas y mejoró su técnica, mientras que Leibniz llegaba a los mismos resultados por un método diferente. Los dos sabios fueron mutuamente acusados de plagio, a pesar de que sus investigaciones eran independientes aunque casi simultáneas.

Las anotaciones de Leibniz eran, por lo demás, más eficaces y los franceses las adoptaron. La invención del cálculo diferencial  e  integral que se funda en la acumulación de las diferencias infinitamente pequeñas, había de permitir resolver los problemas que planteaban las matemáticas del espacio, con sus cambios de tiempo, de lugar, de masa, de velocidad, etc.. Newton se dedicó entonces a estudiar las cuestiones que sus predecesores habían dejado sin solución: ¿por qué los astros describen curvas en lugar de desplazarse según un movimiento rectilíneo? Se dice que fue la caída de una manzana lo que puso en marcha los mecanismos de su reflexión.

Necesitó veinte años para dar las pruebas de sus teorías sobre el movimiento y la gravitación universal, las cuales iban a ser unánimemente admitidas hasta Einstein.

Albert Eisntein

En el espacio vacío, los cuerpos ejercen una atracción mutua; la fuerza de atracción es tanto mayor cuanto menor es la distancia entre dos cuerpos y mayor la masa del cuerpo que ejerce la atracción, o, dicho de otro modo, esta fuerza es directamente proporcional al producto de las  masas  e  inversamente proporcional  al cuadrado de las distancias. Newton extendía a todo el universo los fenómenos que entonces se creían reservados a la Tierra, siendo el cielo teatro de misterios inaccesibles, como lo creía la Edad Media.

Obtuvo una formulación matemática, gracias al cálculo infinitesimal, y consiguió una comprobación en el estudio del movimiento y de la velocidad de la Luna. Estableció, igualmente, que a cada acción se opone igual reacción. Las teorías de Newton chocan con las de Descartes, el cual explicaba la interacción de los astros por medio de los famosos «torbellinos» que agitaban continuamente la «materia sutil» continua, en la que flotaban los cuerpos. A la publicación de «Principia» siguieron numerosas polémicas.

Los cartesianos afirmaban que este principio de atracción era un retroceso a las «cualidades» ocultas de Aristóteles y, a pesar de los argumentos newtonianos, que demostraban la imposibilidad de concebir el espacio celeste lleno de materia, incluso siendo muy fluida, se continuó negando durante largo tiempo la teoría de la gravitación, como lo hicieron Huygens, Leibniz, Fontenelle, Cassini, Réaumur y otros, hasta la confirmación cada vez más brillante que aportaron las experiencias en el transcurso del siglo XVIII. Newton aplicó también su genio al estudio de la luz, explicando por qué los rayos del sol se descomponen en diferentes colores a través de un prisma. Al margen del análisis espectral, hizo numerosos descubrimientos ópticos.

La fe de Newton permaneció viva. Su sistema no eliminaba la exigencia de una causa primera, de un agente todopoderoso «capaz de mover a su voluntad los cuerpos en su sensorium uniforme e infinito para formar y reformar las partes del universo». La ciencia aceptaba a Dios, que debía crear ininterrumpidamente el movimiento, sin el cual todo se pararía poco a poco por degradación de la enegría. Newton murió a la edad de ochenta y cuatro años, rodeado de inmenso respeto, después de haber abierto un campo ilimitado a los descubrimientos de física y matemáticas.
Fuente Consultada:
Enciclopedia de Historia Universal HISTORAMA Tomo VII La Gran Aventura del Hombre

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Amianto Aplicaciones, Propiedades y Riesgos de Cancer

El amianto o asbesto es conocido por el hombre desde hace por lo menos 2.500 años. A causa de su singular resistencia al fuego, se atribuían a esta sustancia propiedades mágicas. Se dice que el emperador Carlomagno demostró sus poderes sobrenaturales arrojando al fuego un mantel de amianto que recuperó intacto. La resistencia al fuego es la propiedad que más llamaba la atención de los antiguos, pero no es la única cualidad del amianto, que ha probado ser enormemente apto en aplicaciones industriales.

Es un excelente aislante del calor, del sonido y de la electricidad, y su naturaleza fibrosa permite que se pueda trabajar para elaborar telas para trajes, etc. Mezclado con otros materiales como el cemento proporciona un excelente material de construcción. El amianto es flexible, resistente a los ácidos y a los álcalis y no se deteriora  con el  tiempo.

Amianto

Hablar solamente de “amianto” no es precisar mucho, pues el amianto no es una sustancia única. Hay muchas variedades de él, y cada variedad posee en distinto grado las propiedades ya indicadas.

El valor comercial del amianto depende grandemente de dos cualidades: su incombustibilidad y su singular estructura fibrosa. La última permite separarle en fibras o filamentos que, en la variedad usada con más frecuencia, poseen una gran resistencia a la tracción y son muy flexibles.

Podemos decir que las principales propiedades del amianto son:

Incombustibilidad.
Elevado aislamiento térmico.
Elevado aislamiento acústico.
Resistencia a altas temperaturas.
Resistencia al paso de electricidad.
Resistencia a la abración.
Resistencia al ataque de microorganismos.

Debido a estas especiales características, el amianto se ha usado para una gran variedad de productos manufacturados, principalmente en materiales de construcción (tejas para recubrimiento de tejados, baldosas y azulejos, productos de papel y productos de cemento con asbesto), productos de fricción (embrague de automóviles, frenos, componentes de la transmisión), materias textiles termo-resistentes, envases, paquetería y revestimientos, equipos de protección individual, pinturas, productos de vermiculita o de talco. El amianto también está presente en algunos alimentos.

YACIMIENTO Y ORIGEN
El amianto, tal como se encuentra en la naturaleza, es una roca, tan sólida y densa como el granito. Se encuentra subterráneamente en vetas delgadas, incluidas en rocas que tienen una composición química parecida.

Incluso hoy día no hay una idea clara de cómo el amianto se formó en la corteza terrestre. La teoría más generalizada es la de que la roca subterránea se transformó por la acción del agua caliente, que contenía sales disueltas y anhídrido carbónico. Al producirse grietas en la roca, éstas se llenaron de agua, y, durante largos períodos de tiempo, ocurrieron reacciones químicas, que dieron lugar a capas gelatinosas que eventualmente cristalizaron para formar el mineral, fibroso y estrechamente empaquetado, que hoy día conocemos.

VARIEDADES   DE   AMIANTO
El nombre de amianto, en una acepción amplia, puede darse a todo mineral natural capaz de ser manejado o transformado en fibras. Hay, por lo menos, treinta tipos distintos de minerales que forman lo que se llama el grupo asbestiforme, y que tienen grandes semejanzas, pero solamente seis poseen importancia comercial.

En orden de importancia, son:   el crisotilo  o  amianto blanco,  la crocidolita o amianto azul, la amosita, antofilita, tremolita y actinolita. Se dividen en dos grupos principales: los amiantos de crisotilo (o serpentina) y los amiantos anfibólicos.

Las diferencias entre los distintos tipos provienen de la roca o matriz donde el amianto se encuentra. Desde el punto de vista químico, son complicados silicatos de magnesio que, generalmente, contienen uno o varios de los siguientes metales: sodio, aluminio, hierro y calcio.

CRISOTILO
Es la variedad más importante de mineral de amianto, y constituye el 80 ó 90 por ciento de la producción mundial. Se encuentra principalmente en Canadá, en la U.R.S.S. y en Rodesia del Sur. Su color varía desde el blanco puro hasta el verde grisáceo, dependiendo de las impurezas que contenga.

El crisotilo no se altera a temperaturas de hasta 450 ó 500 °C, en que empieza a perder agua estructural. Sus fibras resisten la acción de los álcalis, pero no la de los ácidos, y los ácidos minerales  fuertes  las  disuelven  completamente.

Crisolito o Amianto Blanco

Algunas fibras de crisotilo tienen hasta ocho centímetros de longitud, aunque la mayoría están por debajo de los cuatro centímetros. Son fuertes y flexibles, trabajándose con facilidad, probablemente a causa de las cantidades de talco que se encuentran en ellas.

Estas propiedades, juntamente con su resistencia, longitud, y mala conductividad eléctrica (gran resistencia al paso de la corriente), lo hacen muy adecuado para la manufactura de amianto textil. Cuando se muele la roca, el amianto se descompone en fibras, y la parte de roca adyacente se pulveriza.

De esta forma, ambos se separan fácilmente. Frotando la superficie de la roca, pueden obtenerse fibras extremadamente finas, que, de hecho, son haces de fibras todavía más finas, las cuales pueden separarse a mano. Incluso esas fibras pueden subdividirse a su vez.

Con el microscopio electrónico han podido medirse los diámetros de las fibras más finas, que son del orden de dos millonésimas a veinte millonésimas de centímetro. Las fibras que se usan en la práctica son mucho  más  gruesas.

Los  estudios  modernos  con  el  microscopio electrónico sugieren que. las fibras de crisotilo son huecas, a pesar de que los tubos pueden estar rellenos de material menos cristalino, pero con la misma composición química. Esto serviría de explicación al hecho de que las fibras sean suaves, elásticas y absorbentes. Su resistencia a la tensión es muy grande; por término medio, del orden de la de una cuerda de acero para piano del mismo diámetro, aunque se han obtenido valores de resistencia doble.

AMIANTOS ANFIBÓLICOS
Los amiantos que derivan de este grupo se diferencian de los del crisotilo por su mayor riqueza en sílice, hierro, aluminio, sodio y calcio. Sin embargo, contienen menos magnesio. Cada uno de ellos incluye dos o más de esos metales en diferentes proporciones. La crocidolita, que tiene un color azul peculiar, y la amosita, que varía desde el blanco al pardo amarillento, son las variedades más importantes. Ambos son silicatos de hierro; el primero contiene dos tipos de hierro y sodio, y el segundo, hierro ferroso y magnesio.

La crocidolita posee magníficas propiedades de resistencia al calor, semejantes a las del crisotilo. Los amiantos anfibólicos son más ásperos al tacto y, por’consiguiente, más difíciles de trabajar, y menos aptos para la fabricación de tejidos, a pesar de que sus fibras son más largas y que su resistencia a la tracción es grande (mayor que la de las cuerdas de acero para piano). La propiedad más importante de la crocidolita es su resistencia al ataque por los ácidos.

La crocidolita se encuentra principalmente en Sudáfrica, pero también hay grandes yacimientos en Bolivia y en Australia. La amosita se encuentra solamente en Sudáfrica. La resistencia a la tensión es mediana, pero, para algunas aplicaciones, su resistencia al calor resulta superior a la del crisotilo o la crocidolita. Sus fibras pueden tener hasta 30 centímetros de largo, y se usa principalmente para la fabricación de aislantes térmicos. Dado que la amosita es menos flexible y tiene menor resistencia a la tracción que el crisotilo y la crocidolita, sus aplicaciones son bastante limitadas.

Las fibras de los amiantos anfibólicos no sólo son más largas que las del amianto blanco, sino también más gruesas (de 400 a 100 milésimas de centímetro, en vez de dos millonésimas de centímetro). Son sólidas, y, por lo tanto, duras y elásticas, pero quebradizas.

Riesgos del amianto: Existe el riesgo de contraer determinadas enfermedades específicas provocadas por la inhalación de fibras de amianto: asbestosis, cáncer pulmonar y mesotelioma de pleura y/o peritoneo, además de una irritación crónica de la dermis.

Está compuesto por fibras microscópicas que pueden permanecer en suspensión en el aire el tiempo suficiente para que representen un riesgo respiratorio. Cuando el contacto es prolongado puede provocar son enfermedades del aparato respiratorio. El cáncer de pulmón es la más mortal de las enfermedades que afectan a las personas expuestas al amianto.

Otra enfermedad respiratoria es la asbestosis es una enfermedad asociada directamente a la exposición al amianto. Consiste en el desarrollo de una fibrosis pulmonar tras la inhalación de asbesto que con el tiempo dificultad para respirar.

MINERÍA Y TRATAMIENTOS
La mayoría de las rocas que contienen los minerales del amianto se explotan relativamente cerca de la superficie, por lo que esta minería resulta relativamente económica y sencilla, en comparación -con la minería profunda. Con frecuencia, las explotaciones están al descubierto.

A veces, sin embargo, se practican túneles en el frente de la roca, y el mineral se saca en vagonetas. El mineral bruto, con grandes cantidades de ganga, se pica o se dinamita de la roca, de forma parecida a como se hace con el carbón, y se separa provisionalmente a mano. La roca acompañante se tira y el material se lleva al grupo separador donde se extraer; las fibras largas.

Éstas forman el 3 % del mineral extraído, y son susceptibles de ser tejidas. El resto se tritura y se pasa por tamices. Los residuos se aventan para recuperar las pequeñas cantidades de amianto que puedan quedar. La producción de fibra es pequeña: una tonelada de fibra por cada ocho o hasta treinta toneladas de roca triturada.

La fibra de amianto separada por los tamices se lleva a un molino que funciona como un mortero, y a continuación se pasa a un molino de alta velocidad, donde las fibras se separan aún más.

APLICACIONES DEL AMIANTO
Las fibras largas usadas para tejer reciben un tratamiento más cuidadoso para separar las longitudes desiguales, los fragmentos de roca y las fibras no abiertas. A continuación se cardan, se bobinan y se tejen o trenzan. Generalmente se refuerzan con alguna fibra vegetal o, en algunos casos, con finos hilos de metal.

El tejido de amianto tiene muchas aplicaciones industriales. Se usa en revestimientos aislantes de muchas clases, para juntas y protecciones de calderas. Para estos revestimientos, la cubierta exterior de tejido de amianto se rellena de fibra suelta del mismo material. Los revestimientos están solamente extendidos y tensados, de forma que pueden quitarse fácilmente cuando hay que hacer reparaciones o para su manejo.

Los trenzados de amianto tienen usos muy variados en la industria para empaquetamientos y juntas, especialmente para máquinas de vapor y para bombas. Su resistencia al calor y su larga duración les hace excelentes para tales aplicaciones. Otra aplicación de relieve es en los frenos y embragues, donde las propiedades importantes son las de la resistencia y no alteración por el calor. La lisura del amianto permite que la pieza giratoria encaje sin vibración ni desgaste. La mayoría de las camisas anti-fricción se fabrican con tejido de amianto o se moldean con fibras o resina de este material.

Las fibras cortas de amianto son la mayor parte de las obtenidas en la mina y se usan para hacer tableros y objetos prensados. Hay una demanda creciente de fibrocemento (cemento con fibras de amianto) en la industria, especialmente en la de la construcción. Se usa para cubiertas de tejados y paredes, para edificar depósitos y hangares, así como para compartimientos. Los productos de fibrocemento moldeado se usan en la construcción de canales, desagües, tuberías, depósitos, tubos para cables y acequias.

Los tubos subterráneos de fibrocemento de gran diámetro se fabrican con destino a aprovisionamientos de aguas, cloacas y drenaje. La fibra de amianto puede también esparcirse sobre objetos, especialmente si se desea protección contra el fuego. Cuando la fibra se mezcla con un líquido, cada haz de fibras absorbe cierta cantidad de éste. Esta propiedad hace posible el pegarla sobre estructuras de acero, por ejemplo, o sobre la parte inferior de los pisos, para evitar que las llamas puedan extenderse a otras habitaciones.

El amianto de usa también mucho en el aislamiento del sonido. El amianto esparcido o pegado en las superficies es especialmente útil. Como material absorbente del sonido, se usa en las salas de cine o de conciertos, para eliminar las superficies que reflejan el sonido produciendo eco.

El amianto esparcido se aplica también a superficies frías donde, de otra forma, se acumularía la humedad. El amianto esparcido disminuye el enfriamiento de la capa de aire próxima a la superficie (por ejemplo, en un techo) y, de esta manera, evita la condensación.

El uso de amianto fue absolutamente prohibido en España en diciembre de 2001, si bien algunas de sus variedades se prohibieron antes como el amianto azul en 1984 y el amianto marrón en 1993.

Fuente Consultada:
TECNIRAMA La Enciclopedia de la Ciencia y la Tecnología Fasc. N°56
Sitio web español: http://www.amianto.com.es/

Biografia de Ohm Simón Obra Científica y Experimentos

Una vez Fourier hubo elaborado un sistema matemático que daba cuenta adecuadamente del flujo de calor, parecía que el mismo sistema podía emplearse para describir la corriente eléctrica. Mientras que el flujo de calor de un punto a otro dependía de las temperaturas de ambos puntos y de si el material que los unía era buen conductor del calor, la corriente eléctrica de un punto a otro podía depender del potencial eléctrico de los dos puntos y de la conductividad eléctrica del material intermedio. hm haciendo diversas experiencia de laboratorio, logró al fin determinar la famosa ley que lleva su nombre: “Ley de Ohm”

ley de ohm

Dice así: La magnitud de una corriente I eléctrica que pasa entre dos puntos es igual al cociente entre la tensión (o voltaje V) y la resistencia R del conductor por el que atraviesa dicha corriente. Esta es una ley de fundamental importancia, y una de las primeras que se aprenden al estudiar electricidad.

Hoy es conocida como la ley de Ohm, aunque en 1827, al ser enunciada por Jorge Simón Ohm, pasó inadvertida. De hecho, hubieron de transcurrir 16 años para que dicha ley recibiera 4a consideración que merece. En aquella época se prestaba mayor atención a los científicos jactanciosos y con amigos influyentes que a los de carácter reservado y tranquilo como lo era Ohm. Ohm nació en Erlangen (Alemania), en 1789.

ohm simon

Trabajando con alambres de diversos grosores y longitudes, el físico alemán Georg Simón Ohm (1789-1854) halló que la cantidad de corriente transmitida era inversamente proporcional a la longitud del alambre y directamente proporcional a su sección. De este modo pudo definir la resistencia del alambre y, en 1827, demostró que «la intensidad de la corriente a través de un conductor es directamente proporcional a la diferencia de potencial e inversamente proporcional a la resistencia». Ésta es la llamada ley de Ohm.

Era hijo de un maestro de taller, el cual decidió dedicarlo al estudio de las matemáticas y de la física. Y. el propio padre se puso entonces a estudiar estas disciplinas, para poder enseñar a su hijo lo aprendido, dándole clases cuando el muchacho salía de la escuela.

A la edad de 16 años, Ohm comenzó sus estudios en la Universidad de Erlangen, pero, desgraciadamente, la situación económica de la familia hizo que, al cabo de dos años, tuviera que dejar la universidad para colocarse como profesor en Suiza. Más adelante, pudo completar sus estudios y licenciarse; pero, por segunda vez, la falta de dinero le obligó a abandonar sus investigaciones en la universidad, volviendo, de nuevo, a su puesto de profesor.

Después de pasar 4 años enseñando física en Bamberg, se trasladó al Gimnasio de Colonia, donde llevó a cabo sus más importantes investigaciones.

Cuando Ohm comenzó sus experiencias, la electricidad se describía en términos muy imprecisos. No existía un modo exacto de expresar el comportamiento de una corriente eléctrica, y Ohm resolvió hacer algo en este sentido. Fourier había trabajado ya en la conducción del calor, llegando a la conclusión de que en un material conductor existía un gradiente de temperatura y que la cantidad de calor que conducía dependía de la caída de temperatura a lo largo del conductor.

Ohm se preguntó si la electricidad se comportaría del mismo modo que el calor, y si la diferencia de potencial jugaría aquí el mismo papel que la diferencia de temperatura jugaba en termología.

En sus últimos experimentos, Ohm utilizó como f. e. m. (fuerza electro-motriz) constante la proporcionada por un termopar (termocupla), constituido por cobre y bismuto soldados, una de cuyas uniones iba sumergida en hielo y la otra en agua caliente. Para medir la magnitud de la corriente, utilizó una aguja imantada, suspendida convenientemente. De este modo, Ohm pudo estudiar la magnitud de variación de la intensidad de corriente cuando se introducían en el circuito distintas resistencias.

Ohm era muy meticuloso en la realización de medidas y, a pesar de los instrumentos primitivos que utilizó sus resultados fueron lo suficientemente exactos como para demostrar, de manera concluyente, que la intensidad de corriente es igual al cociente entre la tensión y la resistencia. Ohm comprendió instantáneamente la importancia de su descubrimiento y supuso que le sería concedido un puesto en la universidad; en esta creencia, renunció a su cátedra de profesor en el Gimnasio de Colonia.

Las cosas no sucedieron exactamente así, y Ohm estuvo sin colocación durante 5 años; recién a los 60 de edad fue nombrado catedrático de la Universidad de Munich, cargo que desempeñó hasta su muerte, acaecida 5 años después, en 1854.-

EJEMPLOS PARA EXPLICAR DE LA LEY DE OHM

Fórmula General de Ohm

Un método sencillo de recordar las ecuaciones de la ley de Ohm: tapar: la cantidad buscada y los
dos símbolos restantes darán la fórmula requerida.

A condición de que las manifestaciones Físicas, tales como la temperatura, no varíen, la intensidad de la corriente (la cantidad de electrones en movimiento) que circula por un hilo es directamente proporcional a la diferencia de potencial (es decir, la diferencia de presión eléctrica que origina el movimiento de los electrones) entre las extremidades del hilo.

Este hecho se conoce con el nombre de Ley de Ohm. Veamos un ejemplo de esta ley: supongamos que tenemos un circuito en donde circula una corriente de 4 amperios. Por ejemplo una estufa eléctrica conectada a una red de 240 voltios. ¿Cuál es la intensidad de la corriente, si el voltaje de la red cae a 120 voltios?

La ley de Ohm nos dice que, ya que la diferencia de potencial (voltaje) se reduce a la mitad, la corriente debe reducirse en la misma proporción: se divide por dos. La nueva intensidad es, por lo tanto, de 2 amperios. En cada caso la relación voltaje/intensidad es la misma: 240/4=60 A ó 120/2=60 A

Por lo tanto, la ley de Ohm puede escribirse en forma de ecuación: V/I=constante

Si el voltaje, o diferencia de potencial, se mide en voltios, y la intensidad en amperios, entonces la constante, en vez
de ser simplemente un número, es por definición una medida de la resistencia del hilo; o sea, una medida de la resistencia que opone el hilo al paso de electrones a través de él. La resistencia se mide en unidades que reciben el nombre de ohmios.

Por tanto, diferencia de potencial / intensidad de corriente = resistencia en ohmios

Las resistencias medidas en ohmios se suelen simbolizar por el signo R; la diferencia de potencial en voltios se simboliza, generalmente, por V y la intensidad en amperios por I. Utilizando estos símbolos, la ley de Ohm puede escribirse en forma de ecuación: R=V/I. Que se desprende que V=I . R

En realidad, la corriente I=4 amperios es menor cuando la estufa está fría, ya que la resistencia de la mayoría de los metales aumenta con la temperatura. Por eso la ley de Ohm sólo es exacta cuando no varían las propiedades físicas.

Una resistencia de 60 ohmios presenta una oposición moderadamente alta al paso de la corriente eléctrica; si la estufa tiene una resistencia pequeña, digamos de 2 ohmios, presenta un camino mucho más cómodo y a su través pasa una intensidad mucho mayor.

¿Qué intensidad tiene la corriente que pasa por una estufa (con una resistencia de 2 ohmios) que se conecta a una red de 240 voltios? Como lo que buscamos es una intensidad, que se simboliza con una I, utilizaremos la ecuación:
I =V/R=240/2=120 amperios.

Ésta es una intensidad enorme (que fundiría los fusibles tan pronto como se encendiera la estufa). La mayor intensidad que puede soportar, normalmente, un fusible doméstico es de 15 amperios.

¿Cuál es la resistencia de una estufa eléctrica, que funciona justo a esta intensidad, con un voltaje de red de 240 voltios? Aquí lo que buscamos es la resistencia, simbolizada por una R, así qué lo mejor será utilizar la ecuación que contenga la R=V/I=240/15=16 ohmios (Ω)

También la ley de Ohm proporciona un método cómodo para medir voltajes. Un voltímetro sencillo es, realmente, un medidor de intensidad, o amperímetro. Nos indica la intensidad (I) amperios que el voltaje (V) que se quiere conocer hace pasar por una resistencia conocida (R) ohmios.

La magnitud del voltaje se deduce de la ecuación V=I . R- (No se necesita hacer el cálculo en la práctica, ya que esto se ha tenido en cuenta al calibrar el voltímetro.) Si un amperímetro, cuya resistencia total es de 200 ohmios, registra una corriente de 1/10 amperio, ¿cuál es el voltaje que impulsa a la corriente a través del amperímetro?.

O dicho en otras palabras, ¿cuál es la diferencia de potencial entre los bornes del amperímetro? De la ecuación:
V = I . R (esta ecuación es la preferible, ya que la V aparece en el lado izquierdo), se deduce el voltaje: 1/10 amp. . 200 ohm.=20 voltios.

ANALOGÍA DE LA CORRIENTE CON EL FLUJO DE AGUA

Lo intensidad de la corriente de un río es la cantidad de agua que pasa por debajo del puente en un segundo. La intensidad de una “corriente eléctrica” es la cantidad de electrones que pasa en un segundo por un conductor.

El movimiento del agua está producido por una diferencia de altura entre los extremos del río.
Un movimiento de electrones está producido por una diferencia de potencial entre los extremos de un conductor. La diferencia de potencial recibe el nombre de voltaje.

Cuanto mayor es la diferencia de alturas, mayor es la corriente de agua. Del mismo modo, cuanto mayor es la diferencia de potencial (voltaje), mayor es la corriente eléctrica. Al doblar la diferencia de alturas, dobla el flujo de agua; al doblar la diferencia de potencial (voltaje)/ dobla lo intensidad de la corriente. Ésta es la ley de Ohm.

La “estrechez” del río también controla la cantidad de agua que corre por debajo del puente en un segundo. Si el río es muy estrecho, la corriente es pequeña. Del mismo modo, la “resistencia” de un conductor controla el flujo de electrones. Si la resistencia es muy alta, la corriente eléctrica es débil. Si la resistencia es baja (equivalente a un río ancho), la corriente es intensa.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología – TECNIRAMA N°89 La Ley de Ohm

Vida de Bunsen Roberto Inventor del Mechero Científico

En el siglo XIX floreció en Alemania una aristocracia científica. En aquella época, los químicos eran personajes muy importantes y gozaban de gran estima entre el resto de la población. Pero no sólo eran respetados, sino que, con frecuencia, los científicos notables estaban muy bien remunerados, disfrutando de un elevado nivel de vida. La admiración general que la química despertaba, atrajo a los mejores investigadores de otros países, y nadie podía ser considerado un buen químico si no había realizado estudios en Alemania.

Bunsen Robert

Roberto Guillermo Bunsen (1811-1899) fue uno de los personajes más brillantes de la Alemania del siglo xix. Inició sus estudios de zoología,  física y  química  en su ciudad natal, Goettinga (Alemania), ampliando sus conocimientos en París, Berlín y Viena. Fue nombrado profesor de química de la Universidad de Heidelberg, en 1852.

Fue un experimentador audaz. En el curso de uno de sus experimentos perdió la visión de un ojo, lo que no impidió que repitiera el experimento delante de sus alumnos, aterrorizando a los que ocupaban los primeros bancos. En otra ocasión, estuvo a punto de morir envenenado por arsénico y, durante sus experiencias con este elemento, descubrió que el óxido de hierro hidratado era un antídoto eficaz contra dicho tóxico.

Su nombre es recordado, principalmente, por el aparato de laboratorio ideado por él y llamado, en su honor, mechero Bunsen. El gas era, en aquella época, la fuente de calor más usada en los laboratorios; pero si abrimos una llave de gas y prendemos el chorro que brota por el extremo del tubo, la llamita luminosa que se produce es relativamente fría.

Esto se debe a que no existe suficiente cantidad de oxígeno, en el interior de la llama, para que el gas se queme por completo, y el carbono que no ha ardido se deposita en forma de una capa negra, ennegreciendo los objetos calentados. El mechero diseñado por Bunsen aumenta la eficacia calorífica de la llama, ya que su temperatura es más elevada y no deposita hollín. Para conseguirlo, dispuso una entrada de aire regulable en la base del tubo.

La corriente de gas succiona el aire a través del orificio y, si la mezcla resultante contiene 2,5 veces más aire que gas, la llama que produce un zumbido característico será limpia y de gran poder calorífico. Pero si contiene un exceso de aire, la llama se propagará al interior del tubo, ardiendo en la base, en lugar de hacerlo en el extremo superior; es decir, el mechero se cala. Bunsen estudió el tamaño del tubo y del orificio de entrada de aire, hasta conseguir resultados satisfactorios.

Mas, sus esfuerzos científicos no se concentraron en una sola dirección, sino que trabajó en diversos campos, realizando descubrimientos importantes. Inventó una pila de carbono-cinc y un calorímetro de hielo; obtuvo magnesio metálico en grandes cantidades, empleándolo, en parte, como fuente luminosa; contribuyó al análisis de gases y estudió las solubilidades de éstos en los líquidos. Otra de sus invenciones, el jotómetro de mancha, es un dispositivo que se emplea para comparar la intensidad de dos fuentes luminosas, y todavía lleva su nombre.

En colaboración con Kirchhoff, estudió el espectro emitido por los elementos al calentarlos, encontrando dos espectros no identificados, que les condujeron al descubrimiento del cesio y el rubidio. Tras una vida muy activa, falleció en 1899, a la edad de 88 años.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°88 Roberto Bunsen

Diferencia entre peso y masa Concepto Físico

El peso y la masa son, probablemente, las palabras más intensamente empleadas por el lenguaje científico. Están en tan íntima relación que, en circunstancias normales, el peso y la masa de un objeto tienen exactamente el mismo valor numérico. 10 kilos de papas tendrán un peso de 10 kilos y una masa de 10 kilos.

Como los valores son los mismos, se tiene la falsa impresión de que las palabras son sinónimas. Si hemos pesado una zapallo con un aparato que funciona mediante el alargamiento de un resorte (cuanto más pesado sea el objeto, el resorte se estira más), entonces medimos realmente el peso. El zapallo tiene un peso de 10 kilos.

Cuando se ponen las papas en el platillo del aparato, el resorte tira del platillo y de su contenido hacia arriba, oponiéndose a su alargamiento. Por otra parte, la fuerza de la gravedad actúa sobre el zapallo, empujándolo hacia abajo. El resorte se larga hasta que estas dos fuerzas opuestas se equilibran exactamente, y el peso se lee como una medida de dicho alargamiento.

balanza de resorte pensado

Esta balanza de resorte mide la fuerza (P) con que es atraída la masa del zapallo, que según la Ley de Newton, es igual a la masa (m) por la aceleración de la gravedad (g) , ósea: P=m.g. Esta balanza mide peso o fuerza, y según donde se haga a medición variará, porque depende del valor de “g”, no es lo mismo pesar en la Tierra que en la Luna, o en cualquier orto planeta, es decir, el peso varía según la masa m y la aceleración g. Cuanto mas masa o mas aceleración, mayor será el estiramiento “x” del resorte.

El resorte mide, por tanto, la magnitud de una fuerza que intenta estirarlo, y por ello el peso debe ser una clase de fuerza. El empuje hacia abajo del zapallo  depende de dos factores: la cantidad de sustancia o materia contenida en las papas y la atracción de la gravedad de la Tierra. La masa del zapallo no depende del lugar donde se encuentre éste; a menos que se les quite algún trozo, la cantidad de materia que las compone será siempre la misma.

En cambio, el campo gravitatorio de la Tierra (la atracción que ésta ejerce sobre un cuerpo) varía. Si dejamos caer una piedra en un pozo sufrirá un incremento de velocidad de 9,8 metros por cada segundo que cae.

Si la piedra cayera desde un satélite en órbita, situado a muchos kilómetros de distancia, entonces, en un segundo, el incremento de velocidad sería muchísimo menor. Esto es debido a que la piedra se encuentra más lejos de la Tierra y la influencia de esta última sobre ella es mucho menor.

A medida que cambia la acción del campo gravitatorio de la Tierra, cambia el peso del objeto. Si utilizamos un dinamómetro, el zapallo pesará ligeramente menos en la cima de una montaña que al nivel del mar. En cambio, la masa es algo que no varía nunca. Es la cantidad de materia que contiene una sustancia.

Un bloque de plomo está compuesto de un número determinado de átomos. Cada átomo tiene 82 protones, 126 neutrones y 82 electrones. En otras palabras, cada átomo tiene cierta cantidad de materia en él. No importa que el bloque de plomo está en el fondo de un pozo, en la cima de una montaña o en la superficie de la Luna: si no se le ha quitado ni añadido nada, contiene la misma materia y, por lo tanto, la misma masa.

Por este motivo, para medir la masa hay que utilizar un aparato que dé la misma medida, cualquiera que sea el lugar donde sea utilizado. A este fin se usa una balanza. El objeto cuya masa se desconoce, se coloca en el platillo izquierdo de la balanza.

balanza de masa

El platillo desciende, y el brazo de ésta se inclina al no haber nada en el otro platillo para equilibrarlo. Unas pesas metálicas (denominación impropia, pues deberían llamarse masas) se colocan en el otro platillo hasta alcanzar el equilibrio: una masa se equilibra con otra masa.

Si se lleva la balanza a un lugar donde la atracción de la gravedad sea mucho menor, el objeto sufre un menor empuje, pero también le ocurre lo mismo a las “pesas” del otro platillo, y se obtiene el mismo resultado. La balanza de precisión se utiliza para medir masas con una exactitud de cuatro diez-milésimas.

Las pesas, por lo tanto, deben tratarse con mucho cuidado. Si se desgastan pierden cierta masa, y en contacto con los dedos se ensucian con la grasitud de las manos y sufren un aumento de masa. Por ello se deben tomar siempre con pinzas. Éste es uno de los motivos por los que las balanzas de mayor precisión se manejan por control  remoto.

Fuente Consultada:
Enciclopedia de la Ciencia y Tecnología TECNIRAMA N°86

Lanzadera Espacial Columbia Objetivo e Historia

Naves de ida y vuelta: Uno de los principales problemas de la exploración espacial es el alto coste de las misiones. Hay que tener en cuenta que, hasta hace poco tiempo, los cohetes no eran reutilizables. Para cada lanzamiento se empleaba un cohete que se iba destruyendo por etapas, a medida que se quemaba el combustible. Las piezas desechadas eran abandonadas durante el viaje.

Por ello, se consideró importante desarrollar un vehículo espacial que fuera reutilizable, y no se destruyese en cada misión. Este vehículo fue la lanzadera espacial de la NASA.

En el momento del lanzamiento, la lanzadera tiene acoplados unos cohetes propulsores que se desprenden durante las primeras etapas del vuelo y caen al mar, de donde se recuperan para utilizarse de nuevo en vuelos futuros. Una vez desprendidos los cohetes propulsores, la lanzadera se impulsa por sus propios medios hasta entrar en órbita alrededor de la Tierra.

Después de orbitar alrededor de nuestro planeta, la lanzadera vuelve a aterrizar como un avión normal, a una velocidad de unos 300 km/h.

Hasta el momento, las únicas lanzaderas que están en funcionamiento son las de EE.UU. La agencia espacial soviética construyó, en los años ochenta del pasado siglo, una lanzadera espacial denominada Buran (en ruso, tormenta de nieve).

El prototipo llegó a realizar tres viajes de prueba, sin tripulación, con notable éxito, en 1988. No obstante, no eran buenos tiempos para la exploración espacial en aquel país. La Unión Soviética se desmoronó y, antes de que la agencia espacial rusa actual tomara las riendas, muchos proyectos quedaron en el aire por falta de financiación. Entre ellos, la lanzadera Buran.

Casi al mismo tiempo, la agencia espacial europea (ESA) desarrolló su propia lanzadera, la Herrnes. Nuevamente fueron los problemas de financiación los que causaron el abandono del proyecto, a mediados de la década de 1990.
Actualmente, la última lanzadera en desarrollo es la X-38, de la NASA, una pequeña nave que servirá como vehículo de rescate y emergencia para la estación espacial internacional.

lanzadera espacial columbia

COLUMBIA es una lanzadera espacial recuperable fabricada en la NASA. Esta lanzadera espacial tiene un aspecto similar a un avión DC-9 pero con el ala en delta, y es el fruto de un programa de investigación aprovado en tiempos del presidente Kennedy y puesto en marcha por el presidente Nixon.

Para su despegue y puesta en órbita cuenta con dos cohetes que, una vez cumplido su cometido, se desprenden y caen hacia el océano frenados por dos grandes paracaídas, lo que posibilita su recuperación y posterior empleo en otros vuelos, después de una revisión y puesta a punto.

Finalizada su misión en el espacio, la lanzadera efectúa su reentrada en la atmósfera, soportando las altas temperaturas provocadas por la fricción merced a un recubrimiento antitérmico, y aterriza en una pista convencional, pero un poco más larga que las utilizadas por los aviones Jumbo.

Estas lanzaderas, que por sus características de recuperabilidad se denominan también transbordadores espaciales, pueden llevar cómodamente hasta cinco satélites de tamaño medio y una vez en órbita terrestre desprenderse de su carga, ahorrando así los enormes gastos de lanzamiento de cada satélite. También pueden acercarse hasta un satélite averiado en órbita y recuperarlo para devolverlo a la Tierra o proceder a su reparación in situ.

Su primer vuelo despegó de cabo Kennedy el 12 de abril de 1981 y tomó tierra 54 horas más tarde en el desierto de California. J. Young y R. Crippen fueron sus tripulantes y su misión principal fue comprobar el funcionamiento general de la aeronave.

El segundo lanzamiento se llevó a cabo el 18 de noviembre de 1981 y en él se realizaron diversos experimentos científicos y tecnológicos, entre los que cabe destacar las pruebas de funcionamiento de un brazo robot, de construcción canadiense, cuya finalidad es depositar y retirar satélites artificiales de su órbita.

El tercer lanzamiento se realizó el 22 de marzo de 1982 y en el trancurso del vuelo se comprobó el comportamiento térmico de la aeronave, dirigiendo alternativamente sus distintas partes hacia el sol y manteniendo cada orientación durante largo tiempo.

También se realizaron comprobaciones, que se repiten en cada vuelo, del comportamiento de las distintas partes de la nave en los momentos más comprometidos, despegue y reentrada en la atmósfera, junto con comprobaciones de compatibilidad de los distintos elementos que componen el ingenio espacial.

Se probó nuevamente el brazo telemanipulador, para lo cual se colocó en su extremo un conjunto de instrumentos destinados a estudiar las modificaciones producidas en el entorno espacial por el gas y el polvo que se escapan de la areonave, conjunto que pesaba 160 kg.

Se realizaron también experiencias de producción de un enzima, uroquinasa, que puede constituir un medicamento contra la formación de coágulos sanguíneos, y cuyo aislamiento en condiciones de ingravidez es mucho más fácil que en los laboratorios terrestres. Por último se realizaron experiencias de fabricación de microsferas de polestireno en condiciones de ingravidez, las cuales son muy útiles tanto en el campo médico como en el industrial.

Finalmente, el 22 de junio de 1982 se realizó un cuarto lanzamiento del Columbia, en el cual se repitieron las mismas experiencias que en el vuelo anterior y se añadieron otras dos.

Una de ellas consistió en ia separación por elec-troforesis de materiales de interés biológico, para observar las características del proceso en condiciones de ingravidez. La segunda fue una experiencia de interés militar, y por tanto sometida a restricciones informativas.

Con todo, se sabe que se trataba de probar un telescopio de rayos infrarrojos enfriado por helio líquido, con el que se pretendía detectar la radiación calórica emitida por un misil en vuelo, y además distinguir entre las emitidas por cada tipo de misil. Con la puesta a punto de este telescopio los Estados Unidos tendrían la base para el establecimiento de una red de satélites de alerta.

Este cuarto vuelo ha sido la última prueba del programa norteamericano del transbordador espacial, el cual entra ahora en su fase de utilización práctica, durante la cual el Columbia alternará sus vuelos con las nuevas aeronaves Challenger, Discovery y Atlantics.

Ver: Transbordador Espacial

Fuente Consultadas:
La Enciclopedia del Estudiante Tomo 05 Santillana
Actualizador Básico de Conocimientos Universales Océano

PLANISFERIO MAPA DEL MUNDO MAPAMUNDI Mapa Político del Mundo Paises

POR RAZONES DE ESPACIO SE HA DIVIDIDO EL PLANISFERIO EN DOS PARTES, PERO PUEDE ACCEDER A UN GRAN PLANISFERIO OCUPANDO TODA LA PANTALLA.

planisferio

planisferio

planisferio

planisferio

VENTANA CON MAPA COMPLETO

 

Descargar Distintos Planisferios en Diversos Formatos
 Planisferio Mudo con Sus Costas y Ríos
 Planisferio Mudo con Sus Costas y Poblados
 Planisferio Mudo con Poblados con Nombres
 Planisferio con los Estados o Países
 Planisferio con los Estados o Países a Color
 Planisferio Hidrográfico a Color
 Ver Todas Las Opciones

 Descarga de Mapas de los Países del Mundo

Otros Enlaces en Este Sitio
Mapa de América
Mapa de África
Mapa de Asia
Mapa de Europa
Mapa de Oceanía
Los Continentes del Planeta
10 Curiosos Datos Estadísticos del Mundo
Nombres y Banderas De  Los Países de América
Geografía del Mundo
Turismo Virtual
Juego de Ubicar Lugares en el Mundo

Cartografía del mundo
Hace casi 500 años, cuando se generalizó la creencia de que la Tierra era una esfera, los cartógrafos establecieron dos premisas esenciales. Una implicaba un sistema general de meridianos de longitud (del latín longus, «largo») y paralelos de latitud (de latus, «ancho»), que harían posible fijar cualquier situación en el globo. La segunda suponía un método de transferir detalles de una esfera a un planisferio, procedimiento que los cartógrafos modernos llaman una «proyección». Como la Tierra es redonda, no tiene esquinas desde las cuales puedan ser hechas las mediciones. Por lo tanto se utilizan dos puntos definidos de medición, el Polo Norte y el Polo Sur que son los extremos del eje imaginario sobre el cual gira la Tierra.

Al cartografiar la Tierra, los cartógrafos sitúan el Ecuador (la línea del centro alrededor de la Tierra) y los paralelos de latitud como rebanadas de la esfera. Cada paralelo es un enorme círculo dividido en 360°. Cada grado es equivalente aproximadamente a 60 millas náuticas empezando por el Ecuador (una milla náutica equivale a 1.852 metros). Los grados se dividen en 60 minutos, y cada minuto equivale a una milla náutica. El minuto se divide en 60 segundos.

El Ecuador está a 0° de latitud. Hacia el norte, los paralelos a partir del Ecuador están divididos de 1° a 90° (1/4 de círculo) y son llamados «latitud norte». Los paralelos, hacia el sur están también numerados del 1° al 90° y son denominados «latitud sur».

Los paralelos no son suficientes para indicar una localización en la Tierra, así que los cartógrafos colocan meridianos curvados (también medidos en grados, minutos y segundos) de longitud que convergen en los polos Norte y Sur. Como los meridianos cruzan los paralelos, dada la latitud y longitud de cualquier punto de la Tierra, uno puede localizarlos fácilmente.

Mientras que los paralelos de latitud empiezan con 0° en el Ecuador, el meridiano 0° de longitud utilizado desde 1884 por unos 25 países es el meridiano en que está situado el observatorio de Greenwich en Londres, Inglaterra. (Anteriormente muchos países utilizaban los meridianos que pasaban por sus capitales como primer meridiano.) Los meridianos se miden hasta el 180° al este de Greenwich y 180° al oeste de Greenwich. La longitud y el tiempo son inseparables. Una hora es el equivalente a 15° de longitud. Un grado es igual a 4 minutos de tiempo.

La transferencia de las líneas curvadas de los meridianos y paralelos al papel plano de modo que las líneas rectas puedan ser utilizadas como direcciones de compás, se logra por un sistema generalmente llamado como proyección Mercator, por Gerardus Mercator, matemático, geógrafo y grabador, que falleció en 1594.

En su sistema de proyección, todos los paralelos y meridianos forman ángulos rectos entre sí (no curvados como serían en el globo). Los meridianos convergentes de longitud son separados hasta que quedan rectos y paralelos. Mercator lo compensó extendiendo las distancias entre paralelos a un promedio creciente desde el Ecuador hasta los polos. Las tierras y mares fueron distorsionados por el método Mercator, particularmente en las regiones polares. Al enderezar los meridianos, Mercator produjo un enrejado de líneas rectas sobre el mapa, haciéndolo de gran valor para direcciones exactas de compás. El profesor Edward Wright de la universidad de Cambridge mejoró el sistema de proyección Mercator en 1 5 90 y esta adaptación fue aceptada generalmente hacia 1630 y continúa sirviendo a los navegantes aéreos y terrestres y se dice que no tiene igual como ayuda en la navegación. En la actualidad hay en uso otros tipos de proyección; pero todos tienen cierto grado de distorsión.

Los mapas del mundo revelan que menos del 30 % de la superficie de nuestro planeta es tierra; el resto es agua. La navegación segura en el agua en la actualidad depende de una carta náutica, que muestra las profundidades del agua, las posiciones de los cables submarinos, las marcas de reconocimiento terrestres, zonas de anclaje o de prohibición de anclaje, localización de boyas, luces u otras señales luminosas, y otras informaciones. Una carta oceanógrafica es empleada para proporcionar información sobre la distribución de propiedades físicas y químicas en el mar (temperatura, salinidad, etc.), geología, meteorología y biología marina.

En tierra, los mapas topográficos son utilizados por todas las naciones para revelar la elevación de las distintas zonas. La elevación promedio de los Estados Unidos, exceptuando Alaska y Hawaii, es de unos 700 m sobre el nivel del mar. Un mapa topográfico es un registro detallado de la topografía de una zona terrestre, con posiciones geográficas y elevación de los rasgos naturales o hechos por el hombre. Por medio de las líneas de contorno y otros símbolos, los mapas topográficos muestran la forma de la Tierra (las montañas, valles y llanuras) en su forma mensurable. Muestran la red de cursos de agua y de ríos y otros rasgos acuáticos en su verdadera relación
con la Tierra, y las principales obras del hombre en su tamaño relativo y verdadera posición.

Cosa sorprendente, sólo una pequeña porción de la superficie terrestre ha sido cartografiada hasta el grado de exactitud requerido hoy con propósitos industriales, militares, científicos y recreativos. (Sólo un 40 % de la superficie de los Estados Unidos está cubierta por mapas topográficos.)

Los mapas geológicos, que emplean un mapa topográfico como base, revelan qué clase de rocas existen dentro de un país. Los geólogos entrecruzan la Tierra, examinando formaciones rocosas de su superficie y haciendo proyecciones estudiadas de las del subsuelo.Los mapas geológicos son vitales para determinar la localización, profundidad y dimensiones de valiosas masas rocosas tales como las piedras de construcción o las vetas de mineral.

Hoy se hace un creciente uso de la «fotogeología», fotografía aérea y orbital (espacio) para identificar y cartografiar las formaciones geológicas, ciertas características del agua y las fallas terrestres, indicando dónde se pueden producir terremotos. Los aparatos muy sensibles instalados en los aviones, o los satélites que orbitan la Tierra, pueden detectar diferencias de temperatura en varios tipos de formaciones rocosas. La cartografía geológica desempeña un papel vital en determinar dónde están colocadas las estructuras (y cómo son diseñadas, construidas y mantenidas) analizando las rocas y suelos que los rodean.

Los terremotos, inundaciones y otros desastres, pueden hacer que un mapa quede anticuado. La naturaleza puede causar cambios en una costa, requiriendo revisiones para hacer que los mapas usados corrientemente sean exactos.
Los mapas revelan mucho a una nación sobre el mundo que la rodea, como el hecho poco conocido de que la costa occidental de Alaska está a menos de 50 millas de la Unión Soviética.

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Primer Viaje al Espacio Tripulado de Yuri Gagarin Avances Tecnicos Rusos

YURI A. GAGARIN: astronauta soviético nacido Gzhatz hoy lleva su nombre Gagarin, fue el primer hombre en volar una nave espacial fuera de la atmósfera de la Tierra y hacer una revolución completa alrededor del planeta. Creció en una granja colectiva, donde su padre trabajaba como carpintero. A los 7 años, los alemanes invadieron Rusia y su padre se unió al ejército, mientras que su madre lo llevó junto a su hermano mayor y su hermana, a un lugar más seguro.

Vuelo de Gagarin

También durante sus estudios básicos decidió seguir una carrera técnica, y se inició en una escuela técnica cerca de Moscú. Se graduó en metalurgia (1951), y se inscribió en una universidad industrial, donde se interesó en los aviones.

Se matriculó en el sitio de vuelo de la escuela, la Escuela de Aviación de Oremburgo, y pronto demostró que tenía un talento natural para el vuelo. Graduado de controlador de vuelo con distinción (1955), se unió a la Fuerza Aérea Soviética, donde se convirtió en un piloto de pruebas de nuevos aviones y experimental.

 [Seguir Leyendo Yuri Gagarin y Otros Temas Relacionados…]

Mapa de la Luna Superficie de La Luna Crateres Mares y Montañas

¿Por qué vemos más de la mitad de la superficie lunar? Hoy, esta y otras preguntas relativas al movimiento de nuestro satélite ya tienen respuesta. Sin embargo, a pesar de que la Luna es el objeto celeste más  próximo a nosotros, calcular su órbita todavía es difícil: se han descubierto más de 37.000 factores que influyen en sus movimientos.

Hace millones de años la Luna estuvo bombardeada por distintos cuerpos celestes, como asteroides y  cometas, dejando una superficie característica , totalmente “rugosa y ondulada”, formada por miles de cráteres que pueden observarse a simple vista. Inicialmente fueron grandes cuerpos, mientras que en una segunda etapa,  los cuerpos que impactaban fueron mas pequeños, provocando cráteres mas chicos, y todo esto ocurrió hace unos 3800 millones de años aproximadamente.

 El análisis de impactos responde al nuevo catálogo de alta resolución de los cráteres lunares de 20 metros de diámetro o superior -que son 5.185 en total- que se ha hecho gracias a los datos tomados por el altímetro de la sonda espacial de la NASA Lunar Reconnaissance Orbiter (LRO). China también está desde hace pocos años en un proyecto para fotografiar, estudiar y armar un meticuloso y fiel plano de la superficie lunar, por lo que ha enviado una nave que orbita la Luna consiguiendo imágenes en 3D. También estaría previsto enviar una nave no tripulada que alunizara.

Cráter Lunar

Cráter Lunar

INFORMACIÓN BÁSICA DE LA LUNA:
Durante e una órbita de la Luna alrededor de la Tierra, la distancia que separa ambos cuerpos celestes puede variar muchísimo: hasta 1/8 del valor medio. A la distancia máxima de la Tierra, el diámetro aparente de la Luna es aproximadamente 9/10 del que nos muestra cuando se encuentra a la distancia mínima.

Tampoco el perigeo y el apogeo son fijos. A pesar de que se trata del objeto celeste más cercano a la Tierra, calcular el movimiento de la Luna es una tarea difícil. Este tipo de medidas se refiere . siempre a los centros de los dos cuerpos celestes y no a sus superficies.

Deben considerarse también las perturbaciones debidas a la atracción gravitatoria del Sol, al abultamiento ecuatorial de la Tierra y a la influencia de los planetas. Además, la magnitud de las perturbaciones provocadas por todos estos cuerpos varía continuamente, ya que también varían las posiciones de cada uno de ellos en el sistema solar.

Las técnicas más modernas para medir la distancia Tierra-Luna se basan en el empleo del láser. Se envía un rayo láser a la Luna, el cual, por reflexión, vuelve a la Tierra. Sabiendo la velocidad del rayo enviado y calculando el tiempo que emplea en cubrir el recorrido de ida y vuelta, es posible obtener, con una diferencia muy pequeña (pocos centímetros), el valor que se busca. L; teoría que predice el comportamiento de la órbita lunar tiene en cuenta muchos factores periódicos, algunos de los cuales apenas modifican el valor en 2 cm.

Sin embargo, la precisión que se obtiene con el láser obliga a los astrónomos a tener presentes incluso las variables más pequeñas.

IMPORTANCIA DE LA DISTANCIA TIERRA-LUNA
Esta medida no sólo permite verificar nuestras teorías sobre el movimiento lunar, sino también conocer exactamente la distancia Tierra-Luna. Esta información es importante porque influye sobre otros fenómenos. Las mismas teorías sobre el material que forma el interior de la Luna dependen en parte de tales valores.

Gracias a esta medida, es posible obtener en un tiempo muy breve indicaciones exactas sobre la disminución de velocidad (no regular) de la rotación terrestre. La distancia de la Luna a k Tierra interviene también en la medición de la deriva de los continentes, cuyos desplazamientos pueden ser de algunos centímetros por año.

LA ÓRBITA LUNAR
El tiempo que emplea la Luna en efectuar una órbita completa merece un discurso especial: a pesar de que gira alrededor de la Tierra, ésta no está inmóvil en el espacio, sino que, a su vez, gira alrededor del Sol. Respecto a las estrellas que son fijas, un mes lunar dura 27,32 días (mes sideral), pero el tiempo que tarda la Luna en volver a la misma fase respecto a la Tierra es diferente, ya que interviene el movimiento de ambos cuerpos. Este intervalo, llamado mes sinódico, equivale a 29,5 días.

El plano de la órbita lunar no coincide con el terrestre (eclíptica), sino que está inclinado unos 5° 19′. Esto es importante porque gracias a la existencia de un ángulo entre los dos planos no se producen cada mes eclipses en la superficie terrestre.

Con el tiempo, los nodos -puntos de intersección de los dos planos- se mueven con un desplazamiento de 19° por año. También la línea de los ápsides -la que une el perigeo con el apogeo- se mueve, aunque en dirección opuesta. El período de este último movimiento es de 8,85 años.

ROTACIÓN Y TRASLACIÓN
Como ya se ha indicado en otras ocasiones, el movimiento de rotación y el de traslación están sincronizados, es decir, la Luna tarda el mismo tiempo en efectuar una rotación completa alrededor de su propio eje que en girar alrededor de la Tierra. Esto se debe a la fuerza gravitatoria terrestre, que, a lo largo del tiempo, ha hecho disminuir la velocidad inicial de la rotación lunar.

Una consecuencia interesante de ello es que los movimientos del Sol en el firmamento de la Luna son muy lentos: basta decir que el Sol permanece sobre el horizonte durantes 354 horas consecutivas y que el disco solar tarda mas de una hora en emerger completamente. En una semana, el Sol asciende desde el horizonte hasta el punto mas alto del firmamento, y en otra llega a la puesta. El eje de rotación de la Luna está poco inclinado respecto al plano de la órbita y, por lo tanto las variaciones estacionales son mínimas.

ALGO MAS SOBRE LA SUPERFICIE LUNAR…

Un paisaje totalmente desolado, más severo y más áspero que cualquier escenario terrestre, daría la bienvenida a un visitante de la Luna. Elevadas cadenas de montañas., imponentes picos dentados de más de 10.000 metros de altura se alzan sobre una superficie marcada con profundas hendiduras e innumerables cráteres, cubierta por una delgada capa de polvo de ceniza.

Uno de los caracteres más distintivos de la superficie lunar son los cráteres. Éstos varían de tamaño, desde pequeños hoyos hasta enormes depresiones de más de ICO Km. de ancho. Algunos están cercados por empinadas paredes que se elevan quizá a 5.000 metros sobre el piso del cráter y algunos kilómetros sobre la superficie genera! del “terreno”. Otros son depresiones poco profundas con paredes de sólo algunos cientos de metros de altura. Muchos tienen pisos a nivel, pero en otros casos se puede ver en el centro un pico solitario.

El origen de los cráteres ha sido motivo de gran número de discusiones. Dos hipótesis principales se formularon a este respecto: la que los atribuía a un origen volcánico, y la que los explicaba como debidos a grandes colisiones de cuerpos, tales como meteoritos, contra la superficie lunar.

La teoría volcánica adquirió bastante crédito antes de que los científicos comprobaran que era un hecho cierto la caída de meteoritos sobre la Tierra; fue necesaria une larga discusión, que se prolongó durante un siglo, antes de que todos los astrónomos aceptaran que la mayoría de los cráteres eran debidos a choques. De hecho, como luego pudo demostrarse, se pueden también hallar sobre la superficie de la Tierra cráteres formados de un modo semejante.

Uno de los más famosos, el cráter Meteoro, en Arizona, tiene 1.200 metros de ancho y 150 metros de profundidad. La razón de que la Tierra no esté marcada con cráteres, como la Luna, es porque el agua, el viento, y el hielo, han borrado en el trascurso del tiempo todas las huellas, excepto las de los cráteres más recientes.

Pero en la Luna no hay erosión alguna (ya que allí no existen el viento, el agua y el hielo), de modo que se guarda cuidadosamente la evidencia acumulativa de muchos millones de años de castigo meteorice Esta falta de erosión explica también la aspereza del paisaje. Actualmente se reconoce que existen también pequeños cráteres que no pueden ser debidos a choques y, por lo tanto, deben ser de origen volcánico, aun cuando su forma no es la de los volcanes terrestres. En este sentido, se plantea la cuestión de si la Luna se encontró en algún momento en forma de una masa fundida, a alta temperatura, o bien se formó a más baja temperatura a partir de materiales sólidos. Todos los indicios, resultantes de consideraciones de distintos tipos, parecen indicar que la Luna ha debido formarse a baja temperatura, si bien, desde luego, es posible que presente actualmente un interior parcialmente fundido.

La fuente de calor quizá no es su origen residual primitivo; al igual que actualmente se acepta para el origen de los volcanes terrestres, se puede derivar de acumulaciones de materiales radiactivos.

Otra interesante característica del paisaje luna-está constituida por la presencia de grandes áreas oscuras, que los primeros astrónomos creyeron que eran mares. Aunque actualmente se sabe que no son mares (no hay agua líquida en la Luna), continúan utilizándose los nombres antiguos. Un “mar” lunar es una especie de planicie seca situada a cierta distancia por debajo del nivel medio de la superficie. Así, por ejemplo, el océano de las Tormentas, que se sitúa totalmente a la izquierda en la fotografía de la superficie lunar. Un poco más al centro, en la parte superior, se halla el mar de las Lluvias (“Mare imbricum”), con la bahía o golfo de los Iris, de forma semicircular, en su parte superior.

En la parte de abajo, el mar de los Nublados. El astrónomo Gilbert, estadounidense, fue el primero que estudió con gran detalle las características de la imponente colisión que dio lugar a la formación de uno de estos mares, la que se ha denominado “colisión imbria”, por haber originado el mar de las Lluvias. Según todos los indicios, un enorme bólido, con un diámetro de más de 150 Km., incidió sobre la región del golfo de los Iris, procedente del noroeste, elevando una inmensa ola en todas las direcciones de la superficie lunar, pero especialmente en la dirección de su movimiento, esto es hacia el centro del disco visible de la Luna. La energía liberada por la colisión debió ser fabulosa.

Se estima que sería del orden de unos cien millones de veces superior a la de los mayores terremotos conocidos en la Tierra o, si se prefiere una medida más “actual”, ¡del orden de cerca de un billón de bombas atómicas! Un choque de esta magnitud debió producir efectos muy notables. La región afectada se pulverizaría hasta el grado de arena fina, una parte de la cual pudo extenderse sobre un área considerable. Grandes trozos de materia de la superficie lunar y del mismo meteorito fueron probablemente lanzados en alto para caer después en grandes bloques, formando varias masas montañosas. Trozos más pequeños, animados de grandes velocidades, produjeron surcos y estrías en la superficie, que se extienden a grandes distancias del área del choque.

En otras ocasiones la energía desarrollada por la colisión pudo originar la fusión de una parte del material, dando lugar a la formación de las corrientes de lava que parece ser la sustancia principal de algunos de los mares. Este tipo de fenómenos se especula que pudieron ocurrir durante un período del orden de un millón de años, hace unos 4.500 millones de años. Posteriormente, los cuerpos que cayeron sobre la Luna fueron más pequeños, produciendo cráteres menores.

Fuente Consultada: El Universo Enciclopedia de la Astronomía y del Espacio Tomo 3 – Movimientos y Fases de la Luna

Escala del Sistema Solar
Distancia a las Estrellas
La Vía Láctea
Más Allá de la Vía Láctea
Características del Módulo Lunar
La Fases De La Luna
El Hombre Llegó a la Luna
Lugares de Alunizajes

Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia

El enigma del origen del Universo siempre fue tema de estudio y discusión para los científicos. Hasta el presente, la teoría que mejor ha podido explicar este acontecimiento es la propuesta por el físico George Gamow (1904-1968), llamada teoría del Big-Bang o de la Gran Explosión. Está basada en las observaciones del astrónomo Edwin Hubble (1889-1953), quien demostró que las galaxias se alejan unas de otras continuamente.

BIG BANG

13.700 millones de años

Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
NACIMIENTO DEL SISTEMA SOLAR 4500 millones de años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
COLISIÓN PLANETARIA ORIGINA LA LUNA 4500 millones de años
PRIMEROS SIGNOS DE VIDA MICROSCÓPICA 3700 millones de años
PRIMEROS ORGANISMOS PLURICELULARES 500 millones de años
ALGUNOS ANIMALES EMERGEN DEL AGUA 400 millones de años
LA MAYOR EXTINCIÓN EN MASA 252 millones de años
APARICIÓN DE LOS DINOSAURIOS 240 millones de años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
DESARROLLO Y EXPANSIÓN DE LAS FLORES 150 millones de años
EVOLUCIÓN DE LOS MAMÍFEROS 150 millones de años
EXTINCIÓN DE LOS DINOSAURIOS 65 millones de años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
EXPANSIÓN DE LOS MAMÍFEROS POR LA TIERRA 55 millones de años
INICIO DE LA EDAD DEL HIELO 40 millones de años
LOS MONOS BAJAN DE LOS ÁRBOLES 7 millones de años
PRIMEROS HUMANOS PREHISTÓRICOS (homo habilis) 2.5 millones de años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
EVOLUCIÓN DEL LINAJE MODERNO EN ÁFRICA 130.000 años
DATACIÓN DE LA PINTURA RUPESTRE MAS ANTIGUA 30.000 años
NACIMIENTO DE LA AGRICULTURA Y GANADERÍA 10.000 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
ARMAS DE BRONCE, CABALLOS Y CARROS 3.500 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
COMIENZAN LOS JUEGOS OLÍMPICOS EN GRECIA 2.700 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
NACIMIENTO DEL BUDISMO 2.500 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
NACIMIENTO DEL CRISTIANISMO 2.000 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
EL IMPERIO ROMANO ALCANZA SU APOGEO 2.000 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
NACIMIENTO DEL ISLAM 1.500 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
LAS CRUZADAS 1.000 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
LA PÓLVORA Y EL PAPEL LLEGAN A OCCIDENTE 800 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
CONQUISTA EUROPEA DEL NUEVO MUNDO 500 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
CULTIVOS, ANIMALES Y ENFERMEDADES SE GLOBALIZA 400 años
REVOLUCIONES FRANCESA Y AMERICANA 250 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
ERA DE LOS IMPERIALISMO OCCIDENTALES 250 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
COMIENZA LA REVOLUCIÓN INDUSTRIAL 200 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
PRIMERAS VACUNAS 200 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
LA POBLACIÓN MUNDIAL SUPERA LOS 1000 MILLONES 180 años
FERROCARRIL, ELECTRICIDAD Y AUTOMOVILES 150 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
PRIMER VUELO CON MOTOR 100 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
GUERRAS MUNDIALES 80 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
DESCUBRIMIENTO DE LA ENERGÍA ATÓMICA 60 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
ERRADICACIÓN MUNDIAL DE LA VIRUELA 40 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
COLAPSO DE LA UNIÓN SOVIÉTICA 25 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
LA POBLACIÓN MUNDIAL SUPERA LOS 6000 MILLONES 10 años Evolucion del Universo Resumen Cronologia Linea del Tiempo Historia
CIENTÍFICOS PREDICEN LA SEXTA EXTINCIÓN EN MASA 5 años

Aún hoy, después de tanto avances científicos y progresos en la exploración del espacio,  el origen del universo sigue siendo mi misterio. Los astrónomos no pueden más que recurrir a diversas hipótesis. Según la teoría del Big Bang, el universo que se observa en la actualidad se habría formado hace diez mil o veinte mil millones de años, debido a una explosión que formó una “bola de fuego primigenia” en cuya composición entrarían protones, electrones, fotones y neutrones, a una temperatura extremadamente alta; más de un millón de grados. Este gas, en permanente expansión, sería el que, al condensarse, dio origen a las galaxias y, dentro de ellas, a las estrellas y los planetas.

Los astrónomos no se han puesto de acuerdo acerca de la duración de esta expansión: ¿será indefinida, o en algún momento se detendrá? Algunos sugieren que podría detenerse poco a poco. Otros predicen que a la detención le seguiría una contracción y toda la materia volvería, entonces, a su condensación inicial; luego se produciría otra explosión, y el ciclo recomenzaría. También hay quienes sostienen que el universo no tendría principio ni fin, y que permanecerá por siempre en el estado actual. No obstante, debido a que el universo no es estático y hay una creación continua de materia para reemplazar a las galaxias que se alejan, las dos primeras teorías se consideran más consistentes.

Una galaxia es un inmenso sistema conformado por billones de estrellas. Las hay de diversos tipos: irregulares, espirales, elipsoidales; la Vía Láctea, que nos contiene, es una galaxia espiral. Los centros de las galaxias suelen ser luminosos; y en varias de ellas hay indicios de que se hubieran producido explosiones.

Las galaxias forman “racimos” con distinto número de componentes: de una veintena a miles. La Vía Láctea forma parte de un grupo de veinticuatro miembros, denominado Grupo Local, en el cual la más importante es la galaxia de Andrómeda, que tiene el doble del tamaño de la nuestra. En torno a las estrellas, pueden apreciarse nubes de gas y polvo, a veces visibles como en el caso de la nebulosa de Orión. Son estas nubes las que, al condensarse, dan origen a las estrellas.

Imagen del Universo

Nuestro sistema solar está conformado por el Sol y ocho planetas que gravitan a su alrededor. Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido. El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres. Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros. Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

En la periferia del sistema existen, además, una serie de cuerpos que no alcanzan la categoría de planeta, como es el caso de Pintón, “degradado” recientemente, además de otros, descubiertos en los últimos años gracias a los nuevos instrumentos de detección, como Eris, Sedna y Xena. Además hay cuerpos de menor tamaño, como los meteoros. Son rocas que, al entrar en la atmósfera terrestre, se inflaman por el roce del aire y se convierten en estrellas fugaces. Los cometas, por su parte, son bloques sólidos cuya materia comienza a evaporarse a medida que se aproximan al Sol, lo que genera su característica cabellera de gases. Vienen do muy lejos, de más allá de los límites del sistema solar; algunos son periódicos, como el cometa Halley, que se aproxima al Sol cada 75 años.

El trabajo del astrónomo ha variado mucho desde que se estudiaba el movimiento de los astros a simple vista. Los medios de observación actuales —radiotelescopios, receptores espaciales, telescopios ópticos— surgieron del aporte de disciplinas variadas, como la óptica, la mecánica de precisión, le electrónica. Tanto la recolección como la interpretación de datos ya no corren por cuenta de astrónomos individualistas, sino que surgen del trabajo coordinado de un equipo interdisciplinario.

El astrónomo nunca podrá recurrir a la comparación directa del objeto de estudio ni podrá ver por sí mismo la estructura de un astro ni visitar un agujero negro, por lo que constante” mente debe recurrir a la reformulación de sus modelos teóricos. Esto implica un alto grado de interacción de las diversas ciencias, lo que hace de la astronomía actual una disciplina dinámica y en constante evolución, que con el tiempo puede brindar los frutos más inesperados.

EVOLUCIÓN DEL COSMOS

Tiempo cero

Existen cuatro fuerzas unificadas: la fuerza de gravedad, que atrae a los cuerpos; la nuclear débil, que mantiene unidas las partículas subatómicas; la nuclear fuerte, que une los núcleos atómicos y la electromagnética, que atrae a las cargas positivas y negativas. La materia y la energía están concentradas en un pequeño volumen. La temperatura es superior a los 1.011 °C. Se produce una gran explosión o Big-Bang. A partir de allí, el Universo comienza a expandirse.
10-43  10-43segundos después del Big-Bang. La fuerza de gravedad se independiza del resto de las fuerzas. El Universo se visualizaría del tamaño de una uva.
10-35  10-35segundos después del Big-Bang. Se independiza la fuerza nuclear fuerte. Abundan los quarks, los electrones, los positrones y los neutrinos.
1 segundo  1 segundo después del Big-Bang. El electromagnetismo y la fuerza nuclear débil se separa.  Se fusionan las primeras partículas formando los protones y los neutrones.
1 minuto 1 minuto después del Big-Bang. Se forman los núcleos de helio (He) y deuterio (H)
30 minutos 30 minutos después del Big-Bang. Continúa la expansión, la temperatura del Universo baja a 3 . 108 °C.
4 . 105 años después del Big-Bang. Se forman átomos de hidrógeno (H) y sus isótopos y helio (He). Comienza a separarse la radiación de la materia: se liberan microondas, que se expanden en todas las direcciones.
106 años después del Big-Bang.  Las nubes de gas (de hidrógeno y helio) se atraen por fuerzas gravitatorias. Aparecen las primeras galaxias y quasares. Se forman los primeros elementos químicos más pesados que el hidrógeno y el helio. Continúan la expansión y el enfriamiento.
109 años después del Big-Bang.  Se origina la Vía Láctea, galaxia espiral en la cual se encuentra el Sistema Solar.
109 años después del Big-Bang.  Se originan el Sol y los planetas (entre ellos la Tierra). En las estrellas se producen fusiones nucleares que dan origen a los restantes elementos.
109 años después del Big-Bang.  Se forman las primeras moléculas orgánicas en a Tierra
Época actual. 15 . 109 años después del Big-Bang.  Continúa la expansión. La temperatura de las radiaciones de microondas (descubiertas en 1965) es de apenas -270°C. Diámetro estimado del Universo actual: 30.000 millones de años luz (cada año luz equivale a 9,463 x 1012 Km.). El futuro del Universo es incierto. Algunas teorías estiman que seguirá expandiéndose, otras dicen que se contraerá y otras que ocurrirán ambas cosas alternativamente.

Fuente Consultada:
Grandes Inventos Que Cambiaron El Mundo Michael Spiers
Todo sobre nuestro mundo de Christopher LLoyd

 

Teoría de Desintegración Nuclear del Átomo Radioactividad Espontánea

El 24 de febrero de 1896, el físico francés Enrique Becquerel dio a conocer los sensacionales experimentos de que tratamos a continuación, a los que el científico había llegado por puro azar: los cristales de una determinada sal de uranio, tras haber sido expuestos, durante cierto tiempo, a la luz del sol, impresionaban una placa fotográfica situada cerca de ellos, aunque dicha placa estuviera en el interior de una envoltura opaca.

Es decir, la sal parecía emitir misteriosas radiaciones capaces de atravesar cuerpos que normalmente impiden el paso de la luz. Pero Becquerel, prosiguiendo sus experimentos, llegó a resultados cada vez más desconcertantes: el fenómeno se producía, no sólo con la sal de que hablamos, sino con todas las sales de uranio, y se verificaba también en la oscuridad; esto es, sin que las sales hubieran sido previamente expuestas a luz alguna.

La emisión de aquellas radiaciones desconocidas no cesaba, ni siquiera cuando las sales estaban en solución. Una vez más, la ciencia se veía ante algo nuevo y fantástico, absolutamente inexplicable desde el punto de vista de los principios entonces conocidos. El hecho, especialmente, de que el fenómeno se produjera con independencia de las manipulaciones llevadas a cabo en las sales, parecía indicar que su origen debía buscarse en la intimidad más profunda de la materia, allí donde las transformaciones químicas y físicas no pueden causar cambios. Hoy sabemos que esa parte “íntima” de la materia no es otra cosa que el núcleo  de los átomos.

LOS PRIMEROS ESTUDIOS SERIOS SOBRE LA RADIACTIVIDAD

Como suele suceder en estos casos, las experiencias de Enrique Becquerel cayeron en un ambiente de general escepticismo; a pesar de ello, algunos apasionados investigadores (baste recordar el nombre de los esposos Curie) dedicaron toda su vida al estudio del fenómeno, que fue bautizado con el nombre de “radiactividad”. Ante todo se descubrió que los minerales de uranio contenían una serie de elementos aún desconocidos, capaces de emitir radiaciones más intensas que las del propio uranio. De esta forma se llegó al famoso descubrimiento del radio (llamado así, precisamente, a causa de su elevada radiactividad), del polonio y del actinio.

Inmediatamente se empezaron a estudiar las misteriosas radiaciones emitidas, que fueron separadas y analizadas gracias a ingeniosos procedimientos, y se descubrió que eran de tres tipos distintos, genéricamente bautizados como “alfa”, “beta” y “gamma“. Todas ellas integran, como seguramente se recordará, las famosas “radiaciones nucleares”, a las que nos hemos referido en un artículo precedente. (ver radiaciones del átomo)

Teniendo en cuenta lo que entonces dijimos, no nos será muy difícil llegar a la siguiente conclusión: tanto en las emisiones alfa como en las beta, el número de protones, es decir, el número atómico del átomo afectado se transforma. De hecho, con las radiaciones alfa el núcleo pierde dos protones (además de dos neutrones); con las beta gana un protón, a expensas de un neutrón. Pero como el número atómico es el factor que caracteriza a los elementos, cuando un núcleo inestable (radiactivo) emite una radiación, además de estabilizarse, cambia totalmente de naturaleza; es decir, se produce la transformación de un elemento en otro distinto.

Esta afirmación, que hoy no nos cuesta ningún trabajo aceptar, fue enunciada en 1903 por Rutherford y Soddy, y dio origen a una teoría completamente revolucionaria, que se ha hecho famosa bajo el nombre de “Teoría de la desintegración radiactiva”. Con ella se venía abajo el principio de la absoluta inmutabilidad de los elementos, que fue uno de los ejes cardinales de la Química hasta finales del siglo pasado.

Según la nueva teoría, los átomos de los elementos radiactivos, a diferencia de los de los elementos estables, pueden sufrir una “desintegraciónespontánea, emitiendo partículas alfa o beta, y transformándose en átomos de un nuevo elemento “hijo”, química y físicamente distinto del elemento “madre”.

Sin embargo, el elemento así nacido no siempre es definitivamente estable, ya que, a su vez, puede ser radiactivo y dar lugar, mediante la emisión de partículas, a otro elemento, y así, indefinidamente. El conjunto de todos los elementos derivados del mismo tronco, por el sistema descrito, se llama “familia radiactiva”.

Becquerel, el físico que observó por primera vez los efectos de la radiactividad.
Sus experiencias le valieron el Premio Nobel.

LAS SERIES RADIACTIVAS

La ilustración adjunta es, en realidad, un “retrato de familia”: de una familia de elementos radiactivos, naturalmente. En el centro puede verse el núcleo del elemento inicial y luego, sucesivamente, toda su descendencia hasta el último “hijo”.

Hemos partido de un isótopo del uranio, concretamente el uranio 238, cuyo número atómico (número de protones) es 92 y su número de masa (suma de los neutrones y los protones) 238. Por lo tanto su 90 símbolo es 238/92 U.

Se trata de un isótopo radiactivo que emite partículas alfa (2 protones + 2 neutrones): en consecuencia, el elemento “hijo” en el que se transforma tiene un número atómico inferior en dos unidades (los dos protones), es decir: 90, y un número de masa inferior en cuatro unidades (dos protones y dos neutrones); es decir: 234.

El “hijo” del uranio 238 es, pues, el torio 234, cuyo símbolo se escribe 234/90 Th. Pero tampoco esta vez se trata de un elemento estable, ya que el torio desarrolla una actividad beta, transformando un neutrón en protón y originando, al hacerlo, un nuevo electrón, que se desprende del átomo; de esta forma, el torio se convierte en un elemento distinto, que posee un neutrón menos y un protón más, debí-a lo cual, el “hijo” del torio 234 tiene 91 como número atómico y 234 como número de masa. El nuevo elemento se llama protoactinio 234 ( 234/91 Pa).

En símbolos, podemos escribir:       

238/92 U -alfa-> 234/90 Th -beta-> 234/91 Pa 92

Pero no termina aquí el proceso, ya que se producen 12 elementos más antes de llegar a la formación de uno estable, que es el plomo 206  (206 /82 Pb). Con éste se completa la serie del uranio 238, que lleva el nombre del elemento inicial.

En la naturaleza existen tres familias radiactivas, compuestas —en total— por unos cuarenta elementos radiactivos naturales. Cada familia lleva el nombre del elemento inicial: tenemos así la familia del uranio 238, la del torio 232 y la del actinio, llamado también uranio 235. El último descendiente de todas ellas es un isótopo estable del plomo.

Podemos imaginar las tres familias radiactivas como tres torrentes que bajan de la montaña y, tras muchos saltos y cascadas, desembocan en el mar: el agua es la materia en continua transformación, las cascadas son las conversiones de un elemento en otro, el mar es la estabilidad final. Pero ni el agua puede volver a la montaña espontáneamente, ni en la cadena de elementos pueden producirse transformaciones espontáneas en sentido inverso a las indicadas.

Es decir: en las condiciones actuales de nuestro planeta, jamás vemos al plomo transformarse en uranio, sino a éste, a través de sus diversos descendientes, en plomo. Estamos, pues, ante uno de los infinitos ejemplos que demuestran cómo todo, en la naturaleza, tiende a la estabilidad, por medio de transformaciones irreversibles; y, si fuese lícito aplicar a estos conceptos las palabras del lenguaje común, deberíamos identificar esta estabilidad con la muerte física de nuestro universo, que se producirá cuando todas las transformaciones naturales capaces de generar calor se agoten. Pero estamos lejos del final.

Las estrellas brillan sin cesar y en ellas el hidrógeno se transforma en toda clase de elementos, desde el helio al uranio, con reacciones que se producen espontáneamente a determinadas temperaturas, liberando grandes cantidades de energía, la que seguirá moviéndose durante miles de millones de años.

esposo curie
María y Pedro Curie, que dedicaron su vida a los estudios sobre las sustancias
radiactivas y descubrieron el radio y el polonio.

Fuente Consultada:
Enciclopedia del Estudiante Superior Fasc. N°45
Físico Químico de Pilar Escudero y Otros.

Nacimiento, vida y muerte del Sol Evolucion de una estrella comun

LA VIDA DEL SOL: NACIMIENTO Y EVOLUCIÓN ESTELAR

Las estrellas como el Sol permanecen en fase de protoestrella (durante la cual su temperatura no es todavía suficiente para encender las reacciones nucleares en el centro) por algunos millones de años, hasta que comienzan las reacciones nucleares. Luego alcanzan la secuencia principal donde comienzan a quemar hidrógeno. Los cálculos indican que en el Sol esta fase comenzó hace 4,5 mil millones de años y durará otros 5 mil millones.

Una vez que agote el suplemento de hidrógeno, el núcleo solar contendrá sólo helio. La fusión del H continuará en la capa que rodea al núcleo, el cual va creciendo. Su propio peso provoca su contracción, la temperatura central aumenta y comienza la fusión del He. Los núcleos de He se combinan entre sí para formar elementos más pesados: C, N y O, son las llamadas reacciones CNO. (H: Hidrógeno, O: Oxigeno, C: Carbono, He: Helio)

En este proceso se entrega calor a la estrella, el cual se suma al producido por la fusión de H en He, que todavía continúa realizándose en las capas exteriores. Este calor provoca la expansión de la superficie, mucho más allá que en las estrellas normales (de secuencia principal). El Sol abandonará aquí la secuencia principal y entra en la fase de gigante roja, durante la cual su radio aumentará hasta la órbita de Marte y perderá mucha masa. Por entonces la Tierra ya habrá desaparecido pues a medida que la estrella se expande, se enfría.

Cuando el Sol alcance el final de la fase de gigante roja habrán pasado uno o dos millones de años desde que dejó la secuencia principal. La fusión del He proporciona menos energía que la del H, es decir que la reserva de He se agota mucho más rápido que la de H. Por eso esta fase es corta respecto de toda la vida de la estrella y se observan pocas gigantes rojas: sólo 1% de las estrellas de nuestra galaxia están en esta etapa, es decir unos 2.500 millones de estrellas. La figura 30 muestra la evolución del Sol en el diagrama H-R desde su nacimiento sobre la ZAMS hasta la fase de gigante roja.

A medida que continúa la contracción del núcleo, hacia el final de su vida como gigante roja, su temperatura central será mayor de 100 millones de grados y por lo tanto la presión central será enorme. Esta presión será tan grande que la materia en el centro adquirirá propiedades cuánticas especiales, debido a la gran concentración de electrones. Este tipo de materia se denomina degenerada.

La densidad actual del Sol es semejante a la del agua. La materia degenerada tiene una densidad 100.000 veces mayor.

¿Qué sucederá cuando siga creciendo la temperatura central? La evolución post-secuencia principal del Sol es mucho más incierta que la presente y, por lo tanto, sólo se puede hacer una rápida estimación de su agonía luego del llamado “flash de helio”: una explosión gigante en su centro. Codiagramamo resultado de este flash el núcleo se expande rápidamente y comienza a oscilar.

Este movimiento es frenado por la envoltura que en la gigante roja aparece muy extendida. El centro, donde el He se transforma en C y el C en O está rodeado por una capa de H que se quema. Luego del flash de He la estrella se mueve sobre la rama horizontal, zigzaguea horizontalmente a través del diagrama H-R, aumentando su luminosidad. Esta fase dura solo unos cientos de millones de años.

Evolución del Sol en el diagrama H-R, desde su nacimiento sobre la ZAMS ra sólo unos cientos de hasta la fase de gigante roja. 

Lo que sigue es muy difícil de predecir. Las etapas que transitará el Sol en su agonía se describen en detalle más adelante. Se supone que eyectará una envoltura de gas para transformarse en nebulosa planetaria. El núcleo remanente de las estrellas está formado principalmente por materia degenerada de electrones. En consecuencia no se puede contraer más y las estrella se enfrían lentamente transformándose en enanas blancas. Se estima que el Sol se transformará en una enana blanca con lo la mitad de su masa actual. El resto se habrá perdido en forma de vientos violentos y la eyección de sus capas superficiales durante la evolución post-secuencia principal. Las estrellas enfrían rápidamente al principio y luego lentamente , durante miles de millones de años. Las enanas blancas dejan de brillar y se transforman  en enanas negras: una masa fría de materia degenerada. Este es el ultimo suspiro del SOL.

diagram estelar de rousell

EL COLOR Y LA MATERIA
A la luz de los nuevos datos de la ciencia referentes a la masa, el brillo y ol color, se ha clasificado a las estrellas según un diagrama llamado, en honor a sus autores, de Hertzsprung*Russell, De acuerdo con el mismo, la mayoría de las estrellas se disponen en una diagonal, llamada “serie principal”. Las más brillantes y grandes están arriba y las más pequeñas y opacas, abajo. El color pasa, de izquierda a derecha, del azul hasta el rojo oscuro, teniendo como intermedios al blanco, ni amarillo y el anaranjado. La serie principal comienza con los brillantes azules y se traslada hasta las débiles rojas. El Sol, por ejemplo, está en el centro del diagrama. Un caso atípico, es decir, fuera de la serie principal, es el de las gigantes y supergigan-tes rojas, que se ubican a la derecho y arriba del diagrama. La otra familia especial es la de las enanas blancas, que se encuentran abajo y a la izquierda: En esta nota se explicaja incidencia que tienen todas estas características en el material interno de las estrellas

AMPLIACIÓN DEL TEMA…

Cuando transcurran unos 5.000 o 6000 millones de años, el proceso de fusión en el interior del sol se apagará. Sabemos que adentro del Sol hay una especie de central nuclear, quemando millones de toneladas de hidrógeno cada segundo y tiene una capacidad de funcionamiento de unos diez mil millones de años, de los cuales ya han transcurrido la mitad.

Agotado el hidrógeno, podrá iniciarse un nuevo ciclo de combustión, gracias a las cenizas del anterior, que habrá producido abundante cantidad de helio. La fusión del helio generará a su vez cenizas de carbono y nitrógeno que también servirán de combustible nuclear para que el Sol siga brillando durante un tiempo adicional, aunque ya tendrá sus milenios contados.

Las estrellas se parecen un poco al Ave Fénix de la mitología: pueden renacer varias veces de sus propias cenizas antes de apagarse definitivamente.

En todo caso, cuando alrededor de la octava parte del núcleo central del Sol se haya convertido en helio, por el proceso de fusión nuclear, el astro comenzará a experimentar transformaciones irreversibles. En primer lugar se hinchará y, al disminuir en unos dos mil grados la temperatura de su superficie, adquirirá un tono rojizo, crepuscular.

El proceso de expansión continuará y al celebrar su cumpleaños número diez mil millones, el astro rey tendrá cerca del doble del diámetro actual. De ahí en adelante la evolución hacia el gigantismo rojo y hacia la muerte se irán acelerando. En los mil millones de años siguiente el Sol habrá duplicado su tamaño nuevamente. Después, en sólo cien millones de años se hará cincuenta veces más grande y su potencia se multiplicaría por quinientos.

Este proceso de inflación solar terminará por calcinar y engullir a todos los planetas interiores del sistema. La mitología azteca predice que un día la Tierra se habrá cansado y entonces el Sol caerá del firmamento. La leyenda griega de Cronos que devora a sus hijos, terminará así por cumplirse. El Sol, deidad mitológica superior y paterna, de la que derivan los planetas, los devorará finalmente, o los bañará con el aliento de su radiación letal.

Así, llegará para la Tierra un último día perfecto, en que la naturaleza lucirá todo su esplendor y las múltiples criaturas vivas retozarán en los continentes y los océanos del planeta. Luego la biosfera comenzará a destruirse a medida que el Sol vaya hinchándose en el firmamento.

Los casquetes de hielo de los polos se fundirán inundando las costas. Después, el aumento de la temperatura producirá gran evaporación de agua y al engrosar la atmósfera protegerá aun la vida terrestre del exceso de radiación, retrasando un poco el final inexorable.

Pero llegará el día en que los océanos hervirán y nuestro hermoso planeta azul quedará convertido en un desierto, asolado por la radiación e incapaz ya de albergar a ningún tipo de vida.

Todo esto ocurrirá siempre y cuando el hombre no decida, cualquiera de estos días, adelantar el proceso en varios miles de millones de años, detonando sus arsenales nucleares. En ese caso el Sol, al expandirse encontrará a una Tierra tan desnuda y muerta como Mercurio, Marte y Venus.

Si la especie humana sobrevive para ver la muerte del Sol, es posible que adquiera la capacidad tecnológica suficiente como para controlar o al menos modular el proceso de evolución estelar, de manera de no perecer en esta catástrofe. Una solución más viable sería tal vez la de emigrar hacia otros mundos como Titán, el gigantesco satélite de Saturno, o incluso a otros sistemas planetarios.

Esta masiva emigración a las estrellas podría hacerse en naves espaciales que en algún tipo de supercomputadoras llevaran la información genética necesarias como para reproducir en otros soportes planetarios todas las formas de vida originadas en la Tierra. Serían verdaderas Arcas de Noé que salvarían la vida del diluvio de radiación que cundirá por el sistema solar.

Entretanto el Sol, una vez agotado el helio que mantenía encendidos sus motores nucleares, entrará en una agonía de milenios, reciclando las últimas cenizas utilizables como combustible. En esta etapa terminal se contraerá y expandirá alternativamente como un gigantesco corazón, y con cada pulso irá inundando el espacio de radiaciones ultravioletas.

Una hermosa luminosidad roja y azulada se extenderá hasta más allá de la órbita de Plutón. Ese será el ocaso de los planetas o, si se quiere llamarlo de otra forma, el crepúsculo de los dioses.

Más de la mitad de la masa solar se disipará en el espacio. El resto, comprimido en un pequeño núcleo, formará una de esas estrellas superdensas a las que se conoce como “enanas blancas”. Estas son verdaderos cadáveres estelares que aun cuando tienen sus hornos termonucleares apagados, siguen emitiendo, durante un tiempo, la radiación remanente.

Si es que la atmósfera terrestre no se evapora en el espacio, durante las fase de gigantismo solar, las vacías cuencas oceánicas de nuestro planeta volverán a llenarse de agua. Después, una nevazón de dióxido de carbono cubrirá los continentes. El frío se hará cada vez más intenso, los océanos se congelarán y una edad glacial permanente y definitiva se iniciará en nuestro planeta oscuro, ya sin Sol.

Fuente Consultada:
Notas Celestes de Carmen Nuñez

Hechos, Sucesos que estremecen el siglo XX El Universo en Explosión Tomo N°18

Grandes Matemáticos Que Aportaron Ideas A La Fisica:

matematicos famosos

B. Pascal E.Torricelli C. Huygens D.Bernoulli I. Newton

 Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en el futuro?.

El investigador científico plantea la pregunta fundamental: ¿Qué clase de Universo es éste donde yo vivo? Es muy improbable que alguna vez llegue el tiempo en que los humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad. Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. En este capítulo estudiaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Científicos, Ciencia y Física
1-Los científicos buscan explicaciones para los fenómenos naturales.
Sobre todo para satisfacer su propia vehemente curiosidad, el Profesor Roentgen investigó la causa del inesperado brillo de las substancias químicas de su laboratorio. Fahrenheit, al estudiar el punto de ebullición del agua, llegó a conocer mejor el proceso de la ebullición. Torricelli, al intentar comprender el funcionamiento de las bombas, pudo mejorarlas. Cada uno de estos físicos fue inquietado por preguntas y problemas de los que no tenía una inmediata respuesta. Cada uno de ellos trató de encontrar explicaciones para lo que había observado.

Estos tres como todos los científicos, tienen algo en común: buscan explicaciones para los fenómenos naturales.
Si esto hacen los hombres de ciencia, ¿todo el que busca explicaciones es un científico? No necesariamente. Muchas personas buscan explicaciones por los que podríamos llamar caminos “no científicos”. Puede ser que traten de adivinar la respuesta o tomen para ello alguna palabra de otro, pero sin pensar por sí mismos. Esta clase de actividad no es ciencia. Hay veces, sin embargo, cuando se busca tesonera y cuidadosamente la explicación de un fenómeno natural. Entonces se está participando en la Ciencia, al menos por algún tiempo.

2-Lo ciencia tiene dos aspectos.
Acaso el lector se sorprenda de que la Ciencia es actividad, como muchos otros, el lector, habrá pensado que la Ciencia es un conjunto de conocimientos difíciles de comprender. Es superfluo decirlo, la Ciencia debe incluir conocimiento y actividad. El conocimiento lo produce la actividad investigadora. Muchos estudiantes estudian sólo el conocimiento y prestan poca o ninguna atención a los medios para descubrirlo. Aprenden en realidad sólo una parte de la Ciencia y desprecian la parte que debería ayudarles más, si desean convertirse ellos mismos en científicos. Omiten la parte que más puede ayudarles a resolver sus propios problemas personales diarios. ¡Sobre todo se pierden la parte más atractiva de la Ciencia!

3- La investigación científica incluye muchas actividades.
Roentgen
, Pascal, Torricelli y otros mencionados en este sitio estuvieron envueltos en muchas y diferentes clases de actividades. Torricelli resolvió su problema de bombeo incluyendo el comportamiento de la atmósfera. Roentgen estuvo suficientemente alerta como para notar un hecho que para muchos otros hubiera pasado inadvertido. Fahrenheit tuvo el valor de dudar lo que algún otro afirmaba y la persistencia de investigar por sí mismo. Pascal y su cuñado, dedicaron mucho esfuerzo a hacer medidas con el barómetro de mercurio. Torricelli fue notablemente hábil para encontrar el modo de explorar el espacio vacío en la parte superior de su barómetro. Todos estos hombres eran curiosos y todos ellos tomaron esmeradas notas de sus cuidadosas observaciones. Como todos los científicos formularon hipótesis para guiar su trabajo, inventaron modos de probar sus hipótesis y, si fue necesario, cambiaron sus ideas para ajustarías a las nuevas observaciones.

Algunas personas piensan que los hombres de ciencia siguen una serie de pasos determinados para llevar a cabo su investigación. Pero la mayoría de los científicos no piensan así. En realidad, siguen procedimientos que dependen del problema a resolver, de los materiales disponibles y también del científico mismo. Si se pusieran cinco científicos a trabajar en siete problemas, ¡llegarían a tratarlos de 35 modos diferentes ! Muchos de estos procedimientos serán útiles y algunos pueden ser excelentes. Si el lector está buscando e¡ método científico para tratar un problema, ¡cese en su búsqueda! Del mismo modo, como puede haber muchas maneras de solucionar un rompecabezas o de componer un grifo o de conseguir el automóvil familiar para usarlo por la tarde, así hay muchos modos para plantear y resolver los problemas científicos.

4- La ciencia es un proceso intelectual.
¿Está incómodo el lector porque hasta aquí no hemos hecho mucho énfasis en las herramientas de la Ciencia? ¿Qué hay de los microscopios, los reactores nucleares, los aparatos de medida, la vidriería química y cosas semejantes? ¿Dónde está su lugar? Naturalmente, gran parte de la Ciencia incluye el uso de dicho equipo, y al principio, parece que una gran parte de la Ciencia surge en el laboratorio. Pero cuando uno se detiene a pensarlo, probablemente, esté de acuerdo que, en último análisis, la Ciencia se desarrolla en la mente de las gentes. La Ciencia es una actividad que incluye inteligencia, es un proceso intelectual. Mucha ciencia se crea en nuestro cerebro. ¡Los laboratorios sin gente que piense están realmente vacíos!

5- La ciencia está relacionada con la tecnología.
Mucha gente confunde los términos Ciencia y Tecnología. Piensan que la Ciencia es un asunto de puentes de kilómetros de largo, de drogas maravillosas, televisión a colores y cohetes a la Luna. Por supuesto la Ciencia está ahora incluida en estas realizaciones, pero hay una diferencia. Mientras la Ciencia es una búsqueda de explicaciones, la Tecnología es una búsqueda para mejorar ciertos productos y de los métodos para prepararlos. Mientras que la Ciencia trata, principalmente, del establecimiento de los principios fundamentales, la Tecnología se ocupa, en primer lugar, de la aplicación de estos principios.La Ciencia y la Tecnología están estrechamente relacionadas. Los científicos están casi inermes sin aparatos científicos. Por otro lado, la Tecnología depende, evidentemente, de la Ciencia para la formulación de los principios científicos que aplica.

6-La ciencia tiene profundo efecto sobre la gente.
Los avances científicos y tecnológicos cambian de hecho el modo de pensar del hombre. Si el hombre se contempla a sí mismo, no viviendo en una Tierra que es el centro del Universo, sino habitando un planeta mediano a alguna distancia de una estrella de segunda magnitud, debe verse con una perspectiva muy diferente (contribución debida, entre otros, a Copérnico). Cuando la ilimitada energía nuclear de los reactores se acerque cada vez más a ser una realidad, habrá cambios decisivos en el valor de la propiedad, en las formas de trabajo, transporte y fabricación y en las relaciones internacionales. Quizá lo más importante es que el hombre aprendiera —o está aprendiendo— que puede aplicar su inteligencia para la resolución del gran número de problemas a los que se enfrente.

7-La Física es una ciencia básica.
La Física es la rama de la Ciencia que estudia la energía y sus transformaciones. En la práctica, sin embargo, también trata de la naturaleza de la materia, especialmente de su estructura íntima, pues sabemos ahora que los ordenamientos moleculares, atómicos y subatómicos también incluyen energía. Así la Física podría definirse como el estudio de la energía, la materia y sus cambios, con énfasis en la energía. La Física es una ciencia básica, que sirve de fundamento y está íntimamente relacionada con las demás ciencias teniendo, por supuesto, muchas áreas comunes con ellas. La Química, por ejemplo, puede definirse como el estudio de la materia, la energía y sus cambios, con énfasis en la materia.

Fuente Consultada: FÍSICA Fundamentos y Fronteras Stollberg-Hill

 

Teoría Especial de la Relatividad Explicacion Sencilla Albert Einstein

Teoría Especial de la Relatividad
Explicación Sencilla

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría