El efecto fotoeléctrico

Descubrimiento de Coulomb Charles Vida y Obra Cientifica Descripcion

Descubrimiento de Coulomb Charles Vida y Obra Cientifica

Un joven científico hace en 1785 un descubrimiento asombroso: las fuerzas electrostáticas están regidas por la misma ley de la gravedad enunciada por Isaac Newton.

El ingeniero militar francés Charles Augustin Coulomb nacido en 1736, fue el descubridor de la ley que lleva su nombre, para lo cual había ideado en 1777 una ingeniosa balanza de torsión, que permitía medir las cargas eléctricas.

Además, descubrió la existencia de fuerzas magnéticas, al comprobar la acción del campo terrestre sobre una aguja imantada, y desarrolló las leyes que las rigen.

COULOMB, Charles Augustin de: (Angulema, 1736-París, 1806.) Físico francés. Fue ingeniero militar y superintendente de Aguas y Fuentes, pero en 1789 se retiró a las actividades científicas privadas.

Durante la Revolución fue miembro del comité de pesas y medidas que estudió la adopción del sistema métrico decimal.

En 1802 desempeñó el cargo de inspector de educación.

Entre las investigaciones de Coulomb destacan sus estudios de la fricción (el rozamiento) en la maquinaria, y la elasticidad y torsión de los materiales, que le sirvieron para inventar balanzas de torsión muy sensibles, utilizándolas en sus experimentos sobre la electricidad y el magnetis mo, que le dieron fama.

Biografia de Coulomb Vida y Obra Cientifica Su Descubrimiento
El físico francés Charles de Coulomb destacó por sus trabajos realizados en el campo de la electricidad. En 1785 confirmó experimentalmente la ley que lleva su nombre, y que permite calcular la fuerza entre las cargas eléctricas.

Partiendo de los descubrimientos de Joseph Priestley sóbrela electricidad, formuló la ley de las fuerzas electrostáticas (hoy llamada ley de Coulomb), que dice que dos cargas eléctricas del mismo signo (de signo contrario) se repelen (se atraen) con una fuerza directamente proporcional al producto de sus cargas e inversamente proporcional al cuadrado de la distancia que las separa.

También descubrió que en un conductor cargado la carga está situada en la superficie.

Estudiando el magnetismo, halló la ley de las fuerzas magnéticas (también llamada ley de Coulomb), que dice que dos polos magnéticos de la misma polaridad (de polaridad contraria, uno norte, el otro sur) se repelen (se atraen) con una fuerza directamente proporcional al producto de sus cargas magnéticas e inversamente proporcional al cuadrado de la distancia que los separa.

Coulomb fue nombrado en 1781 miembro de la Academia Francesa.

En su honor, la unidad de carga eléctrica ha recibido el nombre de culombio, que se define como la cantidad de carga transportada en un segundo por una corriente de un amperio.

Entre sus obras, destacan las siguientes: Teoría de las máquinas simples (1779) y Sobre la electricidad y el magnetismo.

OBRA CIENTIFICA: LA LEY DE COULOMB

Coulomb comprobó en 1785 que la fuerza eléctrica de atracción o rechazo respondía a los mismos principios mecánicos que las leyes de gravitación descubiertas por Newton y según las cuales la Tierra y todos los planetas y cuerpos celestes se atraen y mueven en el espacio.

Desarrolló entonces su famosa ley, que permitió en el siglo siguiente desarrollar la industria eléctrica.

En honor de Charles Augustin Coulomb, la unidad de medida de la electricidad fue llamada culombio.

Las fuerzas electrostáticas o magnéticas pueden ser positivas (+) o negativas (-), como se observa en las pilas.

Un imán posee una fuerza magnética positiva en un extremo o polo y una fuerza negativa en el otro.

Si se colocan dos imanes juntos, se comprueba que los polos opuestos se atraen y los polos iguales se repelen.

Acá se observan dos cargas electricas opuesta, que se atraen segun una fuerza F.

ley de coulomb sobre la atraccion de las cargas electricas
Ley de Coulomb sobre la atraccion o repulsión de las cargas electricas

La ley de Coulomb afirma que la fuerza con que se atraen o repelen dos cargas eléctricas determinadas es directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de ¡a distancia que ¡as separa. El tiempo le dió la razón.

ANTECEDENTES DE LA EPOCA:

Entre las nuevas disciplinas físicas que se desarrollan a partir del siglo XVIII encontramos la electricidad, cuyas manifestaciones habían sido observadas por lo griegos.

Al frotar un trozo de ámbar (en griego elektron) se comprobaba que era capaz de atraer pequeños objetos. A esta fuerza misteriosa se la llamó eléctrica.

En 1600, Gilbert observó también las propiedades de la piedra imán, que se encuentra en la Naturaleza, y distinguió entre atracción eléctrica y magnética.

Ya en el siglo XVIII aparecen los primeros instrumentos para producir carga eléctrica, que serán utilizados por Benjamín Franklin para demostrar que el rayo es de naturaleza eléctrica.

En esta idea se basará su invención del pararrayos, tras observar la semejanza entre la chispa eléctrica y los rayos producidos en una tormenta y verificar que la propiedad de ser atraída por las puntas también se da en el rayo.

La cosmovisión newtoniana imperante en este siglo también dejará huella en las ideas de Franklin, quien introducirá el concepto de electricidad «positiva» y «negativa» para explicar la atracción y repulsión de los cuerpos electrizados.

Para entonces los intentos de esclarecer la naturaleza de la electricidad se habían convertido en una cuestión prioritaria.

Galvani y Volta investigaron los efectos de la misma sobre los seres vivos: observaron cómo una pata de rana se contraía al ser conectada a dos metales distintos, y la consideraron como un detector de la electricidad existente entre los dos metales.

Volta observó en sus experimentos que la electricidad puede producirse mediante la acción química de un metal disolviéndose en un ácido. Este sería el principio de la pila voltaica.

El proceso inverso, mediante el cual a partir de la electricidad se puede producir una acción química, se denominará electrólisis y su descubrimiento será fundamental para el desarrollo de la Química.

En 1800 Nicholson y Carlisle fueron los primeros en efectuar este proceso, al hacer pasar electricidad a través del agua mediante dos cables inmersos en ella, hallando así que el agua se descomponía en sus elementos, hidrógeno y oxígeno.

La síntesis química condujo al intento de crear compuestos en el laboratorio: Cavendish logrará la síntesis del agua, y en el siglo XIX se realizará la síntesis de los primeros compuestos orgánicos, como el benceno.

Fuente Consultada:
Grandes Cientificos de la Humanidad Tomo I – Diccionario Biografico de Espasa Manuel Alfonseca
El Jardín de Newton José Manuel Sánchez Ron.
Enciclopedia Electrónica ENCARTA de Microsoft

Cientificos Mas Importantes de la Historia y Sus Descubrimientos

Científicos Mas Importantes de la Historia y Sus Descubrimientos

Los primeros intentos de estudiar el mundo desde un punto de vista científico datan del antiguo Egipto y Babilonia. Sin embargo es a los griegos a quienes debemos las bases de muchos de nuestros pensamientos científicos; la geometría, la astronomía y la química fueron estudiadas frecuentemente de una manera amplia aunque, a veces, las conclusiones a que llegaron fueron desacertadas. Aristóteles creía (erróneamente) que la Tierra era el centro del Universo y que toda la materia estaba formada de cuatro elementos:  tierra, aire, fuego y agua.

Durante la edad media la química se hizo importante aunque no se la conocía por tal nombre. Los alquimistas, dedicados a cosas tales como producir oro de otros metales, realizaron individualmente muchos descubrimientos importantes, aunque poco contribuyeron a nuestro conocimiento de la naturaleza de la materia. La visión del Universo fue alterada radicalmente por las ideas de Copérnico (quien demostró que el centro del sistema solar era el Sol).

El siglo XVII vio un gran florecimiento de la investigación científica. Newton formuló sus leyes del movimiento y de la gravitación universal; en 1662 se fundó en Londres la Royal Society y se crearon en Europa muchos otros cuerpos de científicos organizados, los cuales allanaron el camino para el acercamiento a la ciencia moderna.

Ésta ha evolucionado rápidamente a través de los siglos XVIII y XIX, hasta llegar al profesionalismo especializado de hoy. A continuación figuran muchos de los más grandes científicos.

juego conocer cientificos

LOS CIENTÍFICOS FAMOSOS (Orden Alfabético)

Adrián,  Edgardo   (1889-       )   Inglés,  fisiólogo.  Renombrado por sus trabajos sobre el cerebro, el sistema nervioso y la función de los nervios.

Agassiz, Juan Luis Rodolfo  (1807-1873)   Suizo, naturalista. Una autoridad en peces, para los cuales, propuso  una  nueva  clasificación.  También  estudió  los glaciares.

Ampére, Andrés María (1775-1836) Francés, matemático. Estudió la electricidad y el magnetismo. Dio su nombre a la unidad de corriente eléctrica.

Appleton, Eduardo Víctor (1892-       ) Inglés, físico, investigó el comportamiento de las ondas de radio de largo alcance, especialmente su reflexión en la atmósfera superior.

Aristóteles (384-322 a. C.) Griego, filósofo. Hizo una clasificación del conocimiento y muchos estudios en. el campo de la metereología, biología y geología.

Arquímedes (287-212 a. C.)  Griego, matemático. Estableció  el principio  de Arquímedes,  dedujo la ley de las palancas e inventó el tornillo de Arquímedes y la polea compuesta o polipasto.

Baekeland, León  Hendrik   (1863-1944)   Belga,  químico. Descubrió  el primer  plástico  termo-endurecido de uso práctico. Esto llevó a la producción de la baquelita.

CIENTIFICOS

Baeyer, Adolfo de (1835-1917) Alemán, químico. Realizó investigaciones acerca de los compuestos del cacodilo; descubrió la eosina, la galeína y la ceruleína. Es también conocido por su teoría de la asimilación del ácido carbónico por las plantas. Premio Nobel de química en 1905.

Becquerel,  Antonio Enrique   (1852-1908).  Francés; descubrió la radiactividad mientras usaba sales de uranio.   También estudió la fosforescencia, la luz y el magnetismo.

Berzelius, Juan Jaoobo (1779-1848). Sueco, químico. Descubrió varios elementos, sugirió el uso de la primera letra de los nombres de los elementos como símbolos químicos y creó la primera tabla segura de pesos atómicos.

Black, José (1728-1799). Inglés, químico. Redescubrió el anhídrido carbónico, al que llamó «aire fijado». Es también conocido por sus teorías sobre el calor latente y sobre el calor específico.

Blackett, Patricio Maynard Stuart (1897-       ). Inglés, físico.   Con la cámara de Wilson fotografió la división de un núcleo del nitrógeno) por una partícula alfa, en un protón y un núcleo de oxígeno.

Bohr Níels (1885- ). Dinamarqués, físico. Extendió grandemente la teoría de la estructura atómica al inventar un método explicativo del espectro de los elementos y su posición en la tabla periódica. Ayudó al desarrollo de la teoría cuántica.

Boussingault, Juan Bautista (1807-1887). Francés, biólogo. Explicó las diferencias básicas entre la nutrición animal y vegetal y demostró que las plantas obtienen nitrógeno de los nitratos del suelo y no de la atmósfera.

Boyle, Roberto (1627-1691). Inglés, químico. Figura destacada en la química del siglo XVII. Sus investigaciones cubrieron un campo muy amplio, incluso la neumática; es mejor recordado por la ley que lleva su nombre.

Bragg, Guillermo Enrique (1862-1942). Inglés, físico. Famoso por su trabajo sobre la estructura de los cristales y los átomos; aplicó el espectrógrafo de rayos X, que desarrollaron juntos él y su nijo G. L. Bragg.

grandes cientificos

Bragg,  Guillermo Lorenzo   (1890-       ).  Inglés,  físico. Trabajó con su padre  Sir G. E. Bragg en la estructura de los cristales.

Brahe, Tycho  (1546-1601). Dinamarqués, astrónomo. Hizo  muchas  observaciones  exactas  de los  planetas y  del  Sol.   Éstas  dieron  la  base  para las  leyes  de Kepler.

Brown, Roberto  (1773-1858). Inglés, botánico.   Fue el primero en observar los movimientos de las partículas suspendidas en un líquido.   En su honor, se llamó a este fenómeno «movimiento browniano».

Buffon, Jorge Luis (1707-1788). Francés, naturalista. Dedicó su vida a describir y clasificar plantas. Notorio por su trabajo monumental, Historia Natural.

Bunsen, Roberto Guillermo Eberardo (1811-1899). Alemán, químico. Con Kirchhoff descubrió el análisis espectral. Es recordado por su invento del mechero de Bunsen, aunque hizo inventos y descubrimientos más importantes.

Cannizzaro, Estanislao (1826-1910). Italiano, químico. Aplicó la hipótesis de Avogadro para la determinación de los pesos atómicos; experimentó en química orgánica y descubrió la reacción que luego llevó su nombre.

Cavendish, Enrique (1731-1810). Inglés, físico y químico. Descubrió el hidrógeno y demostró que cuando éste se quema se produce agua. Realizó la primera’ determinación exacta del peso de la Tierra.

Chadwick, Jaime  (1891-       ). Inglés, físico. Trabajó en la  desintegración  nuclear y   en la  dispersión  de partículas alfa.   El bombardeo de berilo con éstas lo llevó al descubrimiento del neutrón.

Cockcrobt, Juan Douglas (1897- ). Inglés, físico. Trabajó en la transmutación del núcleo atómico mediante el uso de partículas atómicas aceleradas. Consiguió desintegrar el núcleo de litio, con protones de alta velocidad.

Copérnico, Nicolás (1473-1543). Polaco, astrónomo. Descubrió que el Sol es el centro del sistema solar. Comprendió que las estrellas están a una enorme distancia de la Tierra pero pensó que estaban fijadas en una esfera.

Crookes, Guillermo  (1832-1919). Inglés,  químico y físico. Inventó el tubo de Crookes y sugirió la verdadera naturaleza de los rayos catódicos.   Descubrió el talio y estudió la radiactividad.

Curie, María Sklodowska (1867-1934). Nació en Polonia y se radicó en Francia, química. Con su esposo separó el polonio de los minerales uraníferos; luego descubrieron  el radio.

Curie, Pedro (1859-1906). Francés, físico y químico. Trabajó en cristalografía, magnetismo y piezoelectricidad.    Ayudó   al   descubrimiento   del   radio   y   del polonio.

Cuvier, Jorge Leopoldo (1769-1832). Francés, naturalista. Trabajó en anatomía comparativa y propuso una clasificación completa del reino animal. Estableció la paleontología como una ciencia separada.

grandes cientificos

Darwin, Carlos Roberto (1809-1882). Inglés, naturalista. Como resultado de sus observaciones, mientras viajaba alrededor del mundo, propuso la teoría de la evolución. Ésta fue publicada en su libro El origen de las especies.

Davy, Hunfredo (1778-1829). Inglés, químico. Famoso por su invento de la lámpara de seguridad.  Experimentó con el gas hilarante,  aisló el sodio y otros metales reactivos y dio nombre al cloro.

Dewar, Jaime (1842-1923). Inglés, químico. Importante por sus investigaciones sobre el comportamiento de la materia a bajas temperaturas; fue el primero en licuar hidrógeno; inventó el vaso Dewar de vacío.

Eddington, Arturo Stanley (1882-1944). Inglés, químico.   Hizo notables contribuciones a la astrofísica, especialmente  sobre la  estructura  de las   estrellas, y calculó la edad del Sol.

Ehrlich, Pablo (1854-1915). Alemán, bacteriólogo. Descubrió que los microbios absorben colorantes en forma selectiva. Mediante la combinación de colorantes con productos químicos venenosos trató de matar los microbios patógenos.

grandes cientificos del mundo

Einstein, Albert (1879-1955). Nació en Alemania, físico matemático. Escribió la Teoría general de la relatividad para rectificar ideas fundamentales sobre la gravitación, relacionando masa con energía; demostró que el espacio y el tiempo eran conceptos inseparables. Ha realizado trabajos apreciables en la teoría  cuántica.

Faraday,  Miguel   (1791-1867).  Inglés,  físico  y  químico. Descubrió el principio de la inducción electromagnética usado en la dínamo.  También licuó cloro y formuló las leyes de la electrólisis.

Fermi, Enrique    (1901-1954).   Italiano,   físico.   Hizo notables contribuciones a la física nuclear por su investigación sobre substancias radiactivas artificiales y energía  atómica.

Fischer, Emilio Armando (1852-1919). Alemán, químico. Trabajó durante muchos años en la estructura de los hidratos de carbono y proteínas. Fabricó artificialmente algunas substancias naturales como la fructosa y la cafeína.

Flamsteed, Juan (1646-1719). Inglés, astrónomo. Primero en obtener el título de Astrónomo Real en Gran Bretaña, es famoso por haber inventado la proyección cónica de los mapas; realizó muchos adelantos en la mejora de los métodos de observación de las estrellas.

Fleming,   Alejandro    (1881-1955).   Inglés,   bacteriólogo. Renombrado por su descubrimiento  de la  penicilina.

Florey, Howard Gualterio (1889- ). Inglés, patólogo. Con Chain aisló una forma pura y estable de penicilina, adaptable al uso medicinal.

Franklin,   Benjamín   (1706-1790).   Norteamericano, hombre de estado y físico. Fue el primero en probar la  naturaleza   eléctrica   de  los   relámpagos   e   inventó el pararrayos.

Fraunhofer, José de (1787-1826). Alemán, físico. Fue suyo el primer estudio preciso de las líneas oscuras en el espectro del Sol, llamadas líneas Fraunhofer.

Galeno, Claudio (aproximadamente de 130-200). Griego, médico; autor fecundo de obras sobre anatomía y fisiología. Sus trabajos permanecieron en uso durante muchos años.

Galilei, Galileo (1564-1642). Italiano, matemático y astrónomo. Construyó el primer telescopio astronómico práctico, con el cual estudió la superficie de la Luna, la Vía Láctea, el Sol, y muchos de los planetas.

Galvani, Luis (1737-1798). Italiano, físico. Renombrado por su descubrimiento de la electricidad animal (galvanismo). Demostró que tocando el nervio que conduce a un músculo de la pata de la rana, éste se contrae.

Gauss, Carlos Federico   (1777-1855). Alemán, matemático. Ganó gran reputación por su trabajo en las teorías del magnetismo y de los números.

Gay-Lussac, José Luis  (1778-1850). Francés, químico y físico. Notorio por su ley de las proporciones definidas y por sus otros adelantos en química.

Gilbert, Guillermo (1544-1603). Inglés, físico. El padre del magnetismo, descubrió su ley básica, es decir, que polos iguales se repelen. Concibió que la Tierra en sí, actúa como un imán.

Golgi, Camilo (1843-1926). Italiano, histólogo. Descubrió el aparato Golgi, una red nerviosa en la mayor parte de las células; desarrolló muchas técnicas de coloración para el estudio de la estructura del sistema nervioso.

Graham,   Tomás   (1805-1869).   Inglés,   químico.   Famoso por su trabajo en la difusión de los gases. Formuló la Ley de Graham.

grandes cientificos

Guericke, Otón de (1602-1686). Alemán, físico. Inventó la bomba neumática; alcanzó la obtención de vacío y creó también un aparato para la producción de electricidad mediante la fricción de una esfera de sulfuro.

Haeckel, Ernesto Enrique (1834-1919). Alemán, biólogo. Sostuvo la teoría de Darwin y realizó importantes estudios sobre las medusas, corales y esponjas. Realizó las primeras tentativas para hacer el árbol genealógico del reino animal.

Halley, Edmundo (1656-1742). Inglés, astrónomo. Mejor conocido por sus observaciones del cometa que lleva su nombre. También trabajó sobre el magnetismo terrestre los vientos y el movimiento de las estrellas.

Harvey, Guillermo (1578-1657). inglés, médico. Llegó  a  la  fama   por   su   descubrimiento   de  la   circulación de la sangre.

Heisenberg, Werner Carlos (1901- ). Alemán, físico. Notorio por su trabajo sobre estructura atómica, fundó la mecánica cuántica. También formuló el principio de incertidumbre.

Herschel,  Federico  Guillermo   (1738-1822).  Nació en  Alemania,  astrónomo. Desarrolló  un  nuevo   tipo de telescopio reflector. Descubrió  Urano y  dos  de sus satélites.

Hertz, Enrique  (1857-1894). Alemán, físico.  Probó experimentalmente la existencia de las ondas de radio  y  demostró  su   semejanza  con  la  radiación  luminosa.

Hooke, Roberto  (1635-1703). Inglés, físico. Trabajó en  matemáticas,  presión  atmosférica y  magnetismo; también estudió el microscopio y telescopio.

grandes cientificos

Hooker, José Dalton   (1817-1911). Inglés, botánico. Notable por su libro Genera Plantarium que escribió con Bentham y que contiene un nuevo e importante sistema de clasificación de las plantas.

Hopkins, Federico Gowland (1861-1947). Inglés, bioquímico.  Sus investigaciones sobre las proteínas y vitaminas fueron de gran importancia. Su trabajo llevó al descubrimiento de los aminoácidos esenciales.

Humboldt,  Federico  de   (1769-1859).   Alemán,  geógrafo. Exploró América del Sur y Asia Central; hizo muchas observaciones de los fenómenos naturales.

Hunter, Juan (1728-1793). Inglés, cirujano y anatomista. El principal cirujano de su época. Hunter fundó la cirugía científica, donde introdujo muchas técnicas quirúrgicas.

Huxley, Tomás Enrique (1825-1895). Inglés, biólogo. Sostenedor de la teoría de Darwin, Huxley trabajó sobre los vertebrados (especialmente el hombre) y métodos de enseñanza científica.

Huygens, Cristian (1629-1695). Holandés, astrónomo y físico. Descubrió la naturaleza de los anillos de Saturno y uno de sus satélites. Formuló su teoría ondulatoria de la luz e inventó el reloj de péndulo.

Jenner, Eduardo (1749-1823). Inglés, médico. Descubrió   un  método   para   prevenir  la  viruela   por  inoculación.

Joliot,  Juan  Federico   (1900-1958).  Francés,   físico. Con  su  esposa Irene Joliot Curie bombardeó  boro con partículas alfa y produjo la primera substancia radiactiva artificial.

Joule, Jaime Prescott (1818-1889). Inglés, físico. Famoso por su determinación de la equivalencia mecánica del calor y sus investigaciones en electricidad y magnetismo. La unidad de energía tomó su nombre.

Kelvin, Guillermo Thompson (1824-1907). Inglés, matemático y físico. Inventó el galvanómetro de espejo, la balanza Kelvin y el electrómetro de cuadrante. Introdujo la escala Kelvin de temperatura absoluta.

grandes cientificos

Kepler, Juan (1571-1630). Alemán, astrónomo. Sus tres leyes del movimiento de los astros son de gran importancia para la astronomía, y proveyeron las bases de la investigación de Newton sobre la gravitación.

Koch, Roberto (1843-1910). Alemán, bacteriólogo. Descubrió los organismos que causan el ántrax, la tuberculosis y el cólera. Desarrolló también nuevas técnicas de coloración y nuevos métodos de cultivo de bacterias.

Lamarck, Juan Bautista (1744-1829). Francés, naturalista. Muy famoso por su teoría de la evolución (lamarquismo) en la cual la herencia de los caracteres adquiridos —se sostenía— explicaba el origen de las especies.

Laplace, Pedro Simón, de (1749-1827). Francés, matemático. Resolvió  muchos  de los problemas matemáticos del sistema solar.  Dedujo la ley que gobierna el campo magnético que rodea a una corriente.

Lavoisier, Antonio Lorenzo (1743-1794). Francés, químico. Descubrió la naturaleza de la combustión y, finalmente, refutó la teoría del flogisto. También descubrió que los animales necesitan oxígeno para vivir.

grandes cientificos

grandes cientificos

Leeuwenhoek, Antonio de (1632-1723). Holandés, óptico. Con lentes simples hizo muchos descubrimientos importantes, observaciones de microbios, corpúsculos de sangre y tejidos animales.

Liebig, Justo de (1803-1873). Alemán, químico. Mejor conocido por su invento del condensador ds Liebig. Es importante por sus trabajos en agricultura, nutrición de las plantas y química orgánica.

Linneo, Carlos (1707-1778). Sueco, botánico. Muy conocido por su trabajo sobre clasificación de animales y plantas. Escribió el Systema Naturae.

Lister, José (1827-1912). Inglés, cirujano. Introdujo los antisépticos en la ciencia médica y más tarde la cirugía aséptica.

Lovell, Alfredo Carlos Bernardo (1913- ). Inglés, astrónomo. Profesor de astronomía de la Universidad de Manchester, trabajó en varios problemas, especialmente en la exploración de las ondas de radio provenientes del espacio.

grandes cientificos

Lyell, Carlos (1797-1895). Inglés, geólogo. Autor de muchos trabajos de geología, Lyell sostuvo la teoría de que los cambios ocurridos en la corteza de la Tierra en el pasado, se debieron a las mismas causas que los cambios que están teniendo lugar ahora.

Malpighi,  Marcelo   (1628-1694).  Italiano,  médico  y anatomista.   Descubrió los capilares entre las arterias y venas y estudió la embriología de los animales y plantas, anatomía de las plantas  e  histología de los animales.

Manson, Patricio (1844-1922). Inglés, médico. Famoso por sus investigaciones de la medicina tropical, fue el primero en demostrar que los insectos son portadores de algunos de los organismos causantes de enfermedades.

Maxwell, Jaime Clerk (1831-1879). Inglés, físico. Famoso por sus investigaciones matemáticas que condujeron al descubrimiento de las trasmisiones radiales.

Mendel,  Gregorio Juan  (1822-1884). Austríaco, naturalista.  Famoso  por su  trabajo   sobre  la  herencia, pionero del estudio  de sus leyes fundamentales.   Su trabajo forma la base  del mendelismo.

Mendeleiev, Demetrio Ivanovich  (1834-1907). Ruso, químico.  Es   famoso   por   su  formulación   de   la  ley periódica basada en los pesos atómicos.

Michelson, Alberto Abraham (1852-1931). Norteamericano, físico. Determinó la velocidad de la luz y realizó estudios prácticos de las corrientes del éter. Inventó también un interferómetro para el estudio de las líneas del espectro.

Millikan, Roberto Andrews (1868-1935). Norteamericano,  físico.  Determinó   el  valor   de  la   carga   del electrón por medio de un famoso experimento en el que usó gotas de aceite.

Newton, Isaac (1642-1727). Inglés, matemático. Notorio por su trabajo sobre la gravedad. Descubrió las tres leyes básicas del movimiento y la relación entre los colores y la luz. Sus trabajos sobre óptica, problemas matemáticos y astronomía han sido de inmensa importancia.

Oersted, Juan Cristian (1777-1851). Dinamarqués, físico. Precursor de la investigación del electromagnetismo, descubrió el principio básico de que un alambre que lleva una corriente eléctrica es rodeado por un campo magnético.

Ohm, Jorge Simón (1787-1854). Alemán, físico. Se dio su nombre a la unidad de resistencia eléctrica y su ley es de fundamental importancia en electricidad.

Pasteur, Luis (1822-1895). Francés, bacteriólogo.  Sus experimentos sobre fermentación destruyeron el mito de la generación espontánea.  Fundó la ciencia de la bacteriología y descubrió la inmunidad artificial.

Pavlov, Juan Petsovich (1849-1936). Ruso, patólogo. Es notorio por su trabajo sobre la fisiología de la digestión, y los reflejos condicionados.

Planck Max Carlos Ernesto Luis (1858-1947). Alemán, físico. Desarrolló la teoría de los cuantos y también trabajó en termodinámica y óptica.

Priestley, José (1733-1804). Inglés, químico. Descubridor .del oxígeno, no llegó a concebir la verdadera I unción de éste en la combustión y le dio el nombre de «aire desflogistado». También descubrió el amoníaco, el óxido de nitrógeno, el monóxido de carbono y el anhídrido sulfuroso.

Ramón y Cajal, Santiago (1852-1934). Español, histólogo. Es sobresaliente su trabajo sobre el sistema nervioso. Hizo importantes descubrimientos acerca de la estructura y forma de las células nerviosas, especialmente en el cerebro y la espina dorsal.

Ray, Juan (1627-1705). Inglés, naturalista. El más grande entre los primeros naturalistas ingleses, fue principalmente un botánico y señaló la diferencia entre las monocotiledóneas y las dicotiledóneas.

Roentgen, Guillermo Conrado (1845-1923). Alemán, físico. Su descubrimiento de los rayos X revolucionó ciertos aspectos de la física y la medicina.

Ross,  Ronaldo   (1857-1932).   Inglés,  médico.   Probó que la hembra del mosquito Anopheles transporta el parásito causante de la malaria.

Rutherford, Ernesto (1871-1937). Inglés, físico. Descubridor de los rayos alfa, beta y gamma emitidos por sus substancias radiactivas. Famoso por su teoría sobre la estructura del átomo, fue el primero en realizar la trasmutación de un elemento.

grandes cientificos

Scheele, Carlos Guillermo (1742-1786). Sueco, químico. Descubridor del oxígeno, el cloro y la glicerina, y sintetizó algunos compuestos orgánicos.

Schleiden, Matías Santiago (1804-1881). Alemán, botánico. Con Schwann desarrolló la «teoría celular».

Schrodinger, Erwin (1887). Austííaco, físico. Especialmente notorio por su trabajo en la mecánica ondulatoria.

Schwann, Teodoro  (1810-1882). Alemán, anatomista. Desarrolló,  con Schleiden, la «teoría celular» trabajando en tejidos animales. Descubrió la enzima pepsina.

Simpson, Jaime Young (1811-1870). Inglés, médico. Famoso por su descubrimiento de las propiedades anestésicas del cloroformo; fue el primero en usar anestésicos en cirugía.                                        ,

Smith, Guillermo (1769-1839). Inglés, geólogo. Demostró que es posible determinar la edad de las rocas mediante el estudio de los fósiles contenidos en ellas.

Soddy, Federico (1877-1956). Inglés, físico y químico. Célebre por su descubrimiento de los isótopos y por el  trabajo  realizado  ulteriormente  sobre  éstos.  Con Rutherford   presentó  la   teoría   de  la  desintegración espontánea.

Stores, Jorce Gabriel (1819-1903). Inglés, matemático y físico. Descubrió cómo determinar la composición química del Sol y las estrellas por sus espectros. Formuló también la ley de Stokes de la viscosidad.

Thomson, J. J. (1856-1940). Inglés, físico. Conocido por su determinación del e/m (carga del electrón dividido su masa), y su descubrimiento de que los rayos, catódicos consisten en electrones, o sea, partículas cargadas negativamente.

Torricelli, Evangelista (1608-1647). Italiano, físico. Inventó el barómetro de mercurio y construyó un microscopio simple.

Urey, Haroldo Clayton  (1893-       ). Norteamericano, químico. Fue el primero en aislar agua pesada y de tal manera, en descubrir el deuterío. Es una autoridad en isótopos.

Van’t Hoff, Santiago Enrique  (1852-1911). Holandés, físico.   Su nombre se asocia a una ley relativa al equilibrio  de las reacciones  químicas.  Notable también por sus investigaciones en presión osmótica.

Vesalio, Andrés (1514-1564). Belga, anatomista. Visto como el padre de la anatomía moderna, hizo írmenos descubrimientos mediante concienzudas disecciones. Mucho de su trabajo está contenido en su libro De Corporis Humani Fabrica.

Volta, Alejandro (1745-1827). Italiano, físico. Desarrolló la teoría de las corrientes eléctricas e inventó la primera batería. La unidad de presión eléctrica es conocida como «voltio» en recuerdo de su nombre.

Wallace, Alfredo Kussel (1823-1913). Inglés, naturalista. Con Darwin, publicó un ensayo sobre la teoría de la evolución. La línea Wallace, línea imaginaria, separa las áreas de la fauna asiática de la australiana.

Wegener,   Alfredo   Lotario    (1880-1930).   Alemán, geólogo. Famoso por su tesis sobre el desplazamiento de los continentes.

Wilson, Carlos Thomson Rees (1869-1959). Inglés, físico. Famoso por su invento de la cámara de niebla, la cual ha probado ser de un valor inestimable en los estudios atómicos.

Fuente Consultada:Enciclopedia Juvenil Técnico-Cientifica Editorial Codex Volumen II – Entrada Cientificos

juego conocer cientificos

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los «sistemas de conversión de energía eólica», sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan «no susceptible de ser dividido». Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Conceptos Básicos de Electrostática Cargas Eléctricas

Conceptos Básicos de Electrostática

EXPERIMENTO CON CARGAS ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar.

Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos.

Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto.

Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro.

La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente.

Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador, el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco.

Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico.

Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 «Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico».

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la «teoría de la relatividad», la cual amplió en 1916 («teoría general de la relatividad»). En 1912 formuló la «ley de los efectos fotoeléctricos». A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 «Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía».
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como «secretario perpetuo» de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la «teoría de los cuantos», la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 «Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel»

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su «Tratado sobre la radiactividad» y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: «Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre».
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó «rayos X», porque desconocía su naturaleza (también conocidos en la época como «rayos Róntgen»).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: «Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica».
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié» puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Historia del Progreso Tecnológico En El Uso de la Energía

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía. El proceso fue larguísimo. Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga. Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas. Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia. 3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento. 1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  «Principia»,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

Naturaleza Ondulatoria de la Materia

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA: Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Efectos de la Radiación Ultravioleta Sobre la Piel Fluorecencia

Efectos de la Radiación Ultravioleta Sobre la Piel

A unos 19 Km. de la superficie de la Tierra, empieza una capa de gas ozono (O3) cuya densidad máxima se encuentra a unos 43 Km. de altura de la Tierra. Esta capa de ozono cumple una función muy importante. Tiene la propiedad de atrapar los rayos ultravioleta perjudiciales que emite el Sol, y, por tanto, evita que alcancen la Tierra.

Los rayos ultravioleta son radiaciones cuyas longitudes de onda varían desde 120 °A a 3.900 °A (una unidad ángstrom es la diez millonésima de milímetro). En el espectro electromagnético, los rayos ultravioleta se encuentran entre la luz visible, cuya longitud de onda es mayor, y los penetrantes rayos X, de longitud de onda más corta.

El  Sol   es  un   cuerpo extremadamente caliente.   Está incandescente porque la temperatura de su superficie es de unos 6.000 grados centígrados, y emite una gran cantidad de radiaciones electromagnéticas, la mayoría de las cuales son luz visible. Emite también rayos infrarrojos y luz ultravioleta. La luz visible afecta a la parte sensible de la retina del ojo y produce la sensación de luz.

La frontera entre la luz visible y la ultravioleta coincide con la frontera entre lo visible y lo invisible. La luz visible es inocua, pero la ultravioleta es perjudicial para los tejidos vivos. El efecto depende de la longitud de onda.

La región ultravioleta comprendida entre 3.000 °A y 1.850 °A es particularmente mortífera, y los rayos correspondientes se utilizan, de hecho, para destruir bacterias patógenas en hospitales y almacenes de alimentos, en donde las bacterias se eliminan antes de que lleven a cabo su acción destructora.

Los rayos ultravioleta de mayores longitudes de onda (3.900 °A a 3.000 °A) pueden tener efectos beneficiosos, en dosis moderadas. Cuando broncean la piel (bronceado solar), los rayos ultravioletas trasforman algunas sustancias orgánicas complejas de las células epiteliales humanas, tales como el ergosterol, en vitamina D.

A continuación, esta importante vitamina se incorpora al torrente circulatorio sanguíneo, y queda a punto para ser utilizada por el organismo. Se sabe muy poco acerca de los efectos de los rayos ultravioleta más cortos, sobre la materia viva.

Tales rayos son muy difíciles de controlar experimentalmente, ya que no se puede conseguir que atraviesen el vidrio ni el cuarzo (un mineral trasparente que trasmite algunos rayos ultravioleta). Esto significa que no se pueden enfocar con instrumentos ópticos como el microscopio ultravioleta. De todos los rayos ultravioleta, sólo pueden atravesar la barrera del ozono, los relativamente beneficiosos a la vida humana.

La luz ultravioleta altera los tejidos vivos porque lleva la suficiente energía para provocar un cambio químico. Tanto el bronceado de la piel como la muerte de las bacterias, resultan de cambios en la estructura química de los materiales que hay en el interior de las células vivas.

Normalmente, se requiere una cierta cantidad de energía para el cambio, y la célula es especialmente sensible a la luz ultravioleta de la longitud de onda correspondiente a esta energía (la cantidad de energía trasportada por cualquier radiación electromagnética depende de su longitud de onda).

penetracion de los rayos ultravioletas

espectro de la luz

penetracion de los rayos ultravioleta

La luz ultravioleta se utiliza para destruir bacterias. Se usa la luz de una lámpara de descarga de vapor de mercurio para mantener el ambiente libre bacterias,  en   un   laboratorio   de  fabricación   de   penicilina.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

¿Son tan nocivos los rayos ultravioleta?: Cuando nos exponemos al sol, la piel reacciona de inmediato co menzando un proceso de defensa que nosotros damos en llamen bronceado. El «ponerse moreno» no es más que un contraataque de nuestra epidermis a la acción de los rayos ultravioleta, contraataque pensado para concentraciones de ozono bastante superiores a las que existen en la actualidad.

Quien más o quien menos de ustedes, apreciados lectores, habrá sufrido en los últimos años las consecuencias de esta disminución de la capa de ozono en forma de enrojecimientos o quemaduras (espero que no en nada más grave).

Si mi propia experiencia pudiera servirles de ilustración, les contaría cómo allá por la década de los ochenta y contando yo unos veinte años de edad, decidí un buen día no volver a pisar una playa si no era con gorra, camiseta y una buena crema solar, cuando tras un breve adormecimiento de domingo y de no más de 30 o 40 minutos sobre la arena (permítanme una recomendación: si se divierten los sábados hasta bien entrada la noche, no madruguen y se tumben al sol a la mañana siguiente), volvía casa y me miré al espejo: mi cara era lo más parecido a un volcán en erupción de lava que hubiera visto jamás.

Algunos geles y after sun pudieron recomponerme en unos días, pero recuerdo mi sorpresa y mi comentario con todo el mundo respecto a «qué demonios había pasado con el sol». La misma exposición que años atrás, siendo una niña, sólo me hubiera causado un leve enrojecimiento, esta vez me había provocado una quemadura tan incómoda como sorprendente. Pocos años después comencé a oír hablar seriamente del adelgazamiento de la capa de ozono.

Efectivamente, nuestra atmósfera ya no nos ofrece la misma protección que hace unos años frente a los rayos ultravioleta. La melanina que se forma en la hipodermis al recibir estos rayos tarda al menos tres días en transferirse a las capas exteriores de la epidermis, y son éstos los días en que somos más propicios a los eritemas y quemaduras solares.

Otra defensa natural de la piel es la formación de células epiteliales queratinosas para crear un manto de mayor grosor sobre la piel; sin embargo, esta piel no es más que una acumulación de células muertas en su superficie, es decir, se trata de una protección lograda a cambio de aniquilar miles de células y apilarlas en la capa más externa de la piel.

La exposición prolongada al sol constituye una agresión, grave en ocasiones, y los causantes de ella son fundamentalmente los rayos ultravioleta del grupo B.

Los rayos UV-B: Este tipo de radiaciones solares son.captadas en buena parte por el ozono en las capas más bajas de la estratosfera, es decir, el ozono tiene un papel clave con respecto a la cantidad de UV-B que atraviesa nuestra biosfera y llega hasta nosotros. Cuando la capa de ozono tenía el espesor correcto, solamente incidía sobre nuestro suelo una fracción de ellos, y éstos eran (y son) los únicos capaces de desarrollar la melanina en la piel. En la actualidad nos alcanza una proporción desmesuradamente alta de UV-B, y aquíes donde comienzan los verdaderos problemas.

Los rayos UV-B penetran en nuestra piel hasta atravesar la epidermis. Cuando la cantidad de UV-B es excesiva, nuestro ADN puede dañarse con facilidad. Estas espirales portadoras del código genético y responsables de que sus células se reproduzcan con idéntica estructura unas a otras, son muy sensibles a las radiaciones y las UV-B parecen «volverlas locas» del mismo modo que lo hace la radiación de tipo nuclear, los rayos X o las emisiones electromagnéticas de gran potencia.

Pensemos que un daño en las hélices en una de sus células orgánicas de ADN puede multiplicarse por mil en cuestión de días, meses o años (otro de los terrores de este peligro es que las lesiones son acumulativas y pueden surgir años después de sufrir el daño). Esto es lo mismo que decir que la exposición excesiva a los rayos UV-B puede provocar, y de hecho provoca, cáncer de piel y lesiones en las partes más débiles expuestas al sol (ojos, labios, etc.).

La Academia Norteamericana de Dermatología afirma que los rayos UV-B son los responsables de un millón de casos de cáncer de piel, entre ellos el melanoma, el más fatal. Lamentablemente, los mismos rayos que antaño nos hacían lucir un espléndido color dorado en la piel, son hoy en día fuente de importantes enfermedades.

Pero no sólo la piel sufre daños cuando las radiaciones UV-B la alcanzan en exceso: las cataratas aumentan año a año su iná dencia en nuestra población por el efecto de los rayos ultraviole ta. Aunque no está muy claro el proceso por el cual el cristalino degenera, se comienza a investigar sobre la fotooxidación de las proteínas de la lente ocular bajo el efecto de los radicales libres generados por los UV-B.

En ocasiones, la córnea llega a «que marse» a causa de las radiaciones y esto es especialmente peligroso para las personas que realizan actividades diarias en superficies altamente reflectantes (pescadores, monitores de esquí, alpinistas, etc.) si no toman la precaución de colocarse unas gafas de sol suficientemente oscuras como para neutralizar la reverberación de estos rayos solares.

Lamentablemente, miles de animales que pastan o desarrollan sus actividades en lugares muy soleados y/o en montañas de altura considerable se ven obligados a sufrir todos los años cataratas y graves problemas oculares por culpa de la insensatez humana.

rayos ultravioletas

Los rayos UV-A y UV-C: Los rayos UV-A penetran más profundamente en la piel, de modo que alcanzan con facilidad la dermis o capa media. Sin embargo, no por ello son más nocivos que los UV-B ya que no provocan mutaciones en nuestro código genético. Sí, en cambio, agotan el caudal del colágeno cutáneo y son por tanto los responsables del envejecimiento prematuro de la piel. Todos conocemos a esos labradores o pescadores que, por la acción de tantas y tantas horas al sol, presentan unas marcadas arrugas en su rostro curtido y tostado. Pese a su antiesteticismo, estas personas no desarrollaban ningún tipo de cáncer epitelial.

Sin embargo, una nueva polémica surgió sobre estos rayos a partir del mes de junio de 1997, fecha en la que un equipo de investigadores franceses anunció que los UV-A podían ser igual o más peligrosos que los UV-B.

Sus razonamientos eran que los rayos UV-A conforman el 90% de las radiaciones ultravioleta que nos alcanzan, a la vez que afirman que dichos rayos son igualmente dañinos que los UV-B, con la única diferencia de que, según estos investigadores, precisan de un mayor tiempo de exposición para causar lesiones. El argumento de mayor peso que esgrimen es que los UV-A incrementan el daño producido por los UV-B.

Curiosamente, una semana después de este descubrimiento, los famosos laboratorios de cosmética L’Oréal hicieron pública una nueva molécula (OR-10154) capaz de filtrar a la vez los rayos UV-B y los UV-A con gran eficacia. Actualmente se encuentra en fase de comprobación ante el comité científico de cosmeto-logía de Bruselas. No hace falta ser muy avispado para percatarse de que, de ser aprobada su comercialización como es de prever, aportará a la casa francesa L’Oréal pingües beneficios, calculables en miles de millones de francos.

Sin discutir los trabajos de estos investigadores, ni siquiera la que será famosa molécula OR-10154, convendría preguntarse por qué son ahora más peligrosos los rayos UV-A que hace cincuenta años si la capa de ozono jamás ha interferido en su paso hasta la superficie de la Tierra.

En el caso de este espectro, el deterioro de la capa de ozono no influye en absoluto, ni influirá en el futuro, de modo que si bien es cierto que los UV-A son responsables de las arrugas prematuras en personas que se exponen diariamente a varias horas de sol, también lo es que no tienen por qué participar en el desarrollo de tumores ni lesiones cutáneas y/o oculares.

O, al menos, tendrían la misma intervención en estos graves problemas que a principios de siglo o hace quinientos años (épocas en las que todos sabemos que el cáncer era un mal prácticamente desconocido).

Argumentar, por otra parte, que los UV-A multiplican los efectos perniciosos de los UV-B es seguir afirmando, de una manera o de otra, que los rayos dañinos siguen siendo únicamente los UV-B, ya que sin su presencia los UV-A no tendrían oportunidad de multiplicar nada. Respecto a los melanomas y las cataratas, los UV-B siguen siendo los únicos culpables, y un simple filtro solar «de los de siempre» ofrecería idénticas garantías al respecto.

Otra cosa muy distinta es la prevención del envejecimiento de la piel, en cuyo caso una crema anti-UV-A sería muy beneficiosa y yo se la recomiendo a todo aquel que tenga por costumbre exponer su piel al sol, pero siempre anunciándola como tal y no lanzando al aire amenazantes conclusiones cuyo fin parece ser el de asustar a la población para, tal vez, lograr en un futuro cercano más ventas.

Respecto a los rayos UV-C, recordemos que son captados por el ozono atmosférico en su totalidad. Gracias a su debilidad, un pequeño tanto por ciento de ozono sería suficiente para no dejarlos pasar, por lo que, de momento, no debemos preocuparnos por ellos. Si el manto de ozono desapareciera en su totalidad, lo de menos serían los UV-C porque en ese caso todos estaríamos pronto muertos.

Cómo protegernos eficazmente: Las dos únicas maneras de protegerse frente a los rayos ultravioleta de un modo efectivo son el uso de una crema con buena protección solar y el administrar prudentemente el tiempo de exposición al sol.

Cremas con filtro solar: Es un error pensar que sólo se deben usar cremas de protección solar cuando nos tumbamos en la arena dispuestos a tomar una buena ración de sol. Efectivamente, ésa es la actividad más peligrosa y en la que será imprescindible tomar todo tipo de precauciones. Sin embargo, un paseo con los brazos y las piernas descubiertos al sol, o una mañana en las terrazas de verano, pueden acarrearnos del mismo modo desagradables sorpresas en forma de enrojecimientos y quemaduras.

Tengamos en cuenta también que las superficies reflectantes (arena, rocas, baldosas, etc.) hacen las veces de espejo y reverberan los rayos invisibles del espectro solar, pudiendo de este modo llegar a quemarnos sin haber sentido ningún tipo de calor sobre la piel.

Siempre que el día sea soleado (máxime en verano) y usted vaya a salir a la calle con parte de su cuerpo desprovisto de ropa, será conveniente que utilice una crema con protección solar. Por supuesto, el rostro debe estar también protegido.

Fuente: Como Sobrevivir Al Siglo XXI – Ana P. Fernandez Magdalena – Editorial Robin Book

CÓMO SE GENERA LA LUZ ULTRAVIOLETA: La Tierra recibe muy poca luz ultravioleta natural, ya que la capa de ozono de la atmósfera bloquea eficazmente su camino. Sin embargo, la luz ultravioleta se puede producir con facilidad en los tubos de descarga de gas. Una fuente muy considerable de luz ultravioleta es el tubo de descarga de vapor de mercurio.

Si el vapor de mercurio se excita haciendo pasar a su través una corriente eléctrica, emite luz ultravioleta. Las radiaciones se producen de forma totalmente semejante a la fluorescencia.

En este caso, en vez de recibir energía luminosa, los átomos de gas reciben la energía de una corriente eléctrica (una corriente de menudas partículas cargadas negativamente: electrones). Cuando se deja de excitar el átomo de mercurio, gran parte de su exceso de energía se libera en forma de luz ultravioleta.

Los tubos de descarga se utilizan, principalmente, para generar luz visible. Si se cubre la parte interior de un tubo de vapor de mercurio con un material fluorescente, prácticamente toda la luz ultravioleta que se produce en la descarga se convierte en luz visible por fluorescencia.

Estos tubos de descarga se encuentran en la moderna iluminación por tubos, y se escogen los materiales radiactivos de tal forma que proporcionen una excelente luz blanca. Cualquier radiación ultravioleta no absorbida es detenida por el cristal del tubo. La mayoría de los cristales son opacos a la luz ultravioleta.

Un tubo de descarga se puede adaptar para que emita luz ultravioleta pura, ennegreciendo la parte exterior del tubo, con lo que se detienen las radiaciones visibles. El tubo de esta lámpara «negra» debe fabricarse, no de vidrio, sino de cuarzo, que transmite con facilidad luz ultravioleta de una serie de longitudes de onda.

Por otra parte, los tubos de descarga no son el único medio de producir luz ultravioleta. Se puede generar también, como en el Sol, produciendo el suficiente calor, y, entonces, parte de la radiación emitida es luz ultravioleta.

Sin embargo, este método de producción es extraordinariamente ineficaz, puesto que, incluso en cuerpos tan calientes como el Sol, sólo una fracción de la radiación total es luz ultravioleta. Cuanto más caliente está el cuerpo, mayor es la proporción de luz ultravioleta en la radiación que emite.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

FLUORESCENCIA: Algunas sustancias, incluso muchas de las que no pueden reaccionar químicamente, cuando se exponen a la luz ultravioleta, absorben una gran cantidad de radiación. Son, con frecuencia, sustancias fluorescentes. Tales sustancias absorben la luz ultravioleta e inmediatamente transforman la energía en luz visible.

Los dientes y las uñas son fluorescentes y relucen suavemente (es decir, emiten luz visible), cuando se los ilumina con una lámpara de luz ultravioleta. Cuando fluorescen diversas clases de materiales emiten luz de diferentes colores. Ello permite preparar un método para comprobar la autenticidad de obras pictóricas.

Cuando, por ejemplo, fluoresce una pintura que contiene blanco de plomo, emite luz blanca. Sin embargo, una pintura con blanco de cinc, da una luz fluorescente de color amarillo limón.

Los diversos pigmentos amarillos que se utilizan en las pinturas amarillas dan colores fluorescentes que se diferencian ligeramente; por tanto, cuando se examina cuidadosamente un cuadro con luz ultravioleta, los expertos pueden encontrar información sobre quién lo pintó y cuándo fue pintado.

La fluorescencia tiene lugar cuando los átomos de una sustancia son excitados por la luz ultravioleta. Los átomos tienden a volver cuanto antes a su posición estable, estado no excitado.

Ellos pueden radiar luz exactamente de la misma longitud de onda que la que han absorbido. Sin embargo, normalmente, en vez de emitir luz ultravioleta de una sola longitud de onda de alta energía, radian dos longitudes de onda de menor energía, que se encuentran, probablemente, en la región visible.

La   luz  ultravioleta   se   produce  en   un  tubo  de descarga   bombardeando  átomos de   mercurio   con   un corriente eléctrica.  La  fluorescencia trasforma  la  luz ultravioleta en luz visible.

Ver: Descubrimiento de los Rayos X

Ver:  Usos de los Rayos Infrarrojos

Fuente Consultada
TECNIRAMA N°57 La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Energía Mareomotriz Producir Electricidad Con Las Mareas

Energía Mareomotriz Producir Electricidad Con Las Mareas

USINAS ELECTRICAS QUE USAN LA FUERZAS DE LAS MAREAS

Hasta ahora, el hombre ha hecho muy poco para aprovechar la energía de los mares y utilizarla convenientemente. La central mareomotriz francesa de la Ranee, fue la primera en su estilo en el mundo, que produzcía electricidad a partir del regular flujo y reflujo de las mareas.

Ocurre que, en este lugar particular de la costa francesa, la diferencia entre pleamar y bajamar es lo suficientemente grande para poder hacer funcionar una planta eficaz. En realidad, hay pocos sitios en el globo terrestre donde el nivel del agua sube y baja lo suficiente como para que valga la pena llevar a cabo la operación.

El desnivel entre la pleamar y la bajamar en el estuario de la Rance tiene un valor medio de 11,4 metros y, por otra parte, la electricidad producida puede consumirse inmediatamente en la región. Por estas circunstancias, el proyecto resulta práctico. Dos veces en cada día lunar (24 horas y 50 minutos), una «ola astronómica» llega del Atlántico y penetra en el Canal de la Mancha.  Su potencia bruta se ha estimado en  56 millones de cabullos vapor.

Aproximadamente, una mitad de esta potencia se pierde en el Canal, al romper las olas y al rozar con el fondo del mar y a lo largo de la costa. Lo que los ingenieros intentan aprovechar con sus centrales mareomotrices es una parte de esta energía perdida.

El principio de la operación, en su conjunto, es sencillo. El hombre lo ha utilizado desde la antigüedad, con ruedas de molino impulsadas por la marea. Un canal, con una compuerta abierta cuando sube la marea, se llenará de agua.

Ésta podrá ser retenida cerrando la compuerta y, posteriormente, se utilizará para producir trabajo o para hacer funcionar algún tipo de planta generadora, cuando la marea baje.

Desgraciadamente, esta teoría tan sencilla fallará en la práctica, porque esto significa que sólo se puede producir electricidad cuando la marea está bajando, y una generación momentánea de electricidad en la madrugada no es útil a nadie. Se necesita una producción regular, para suministrar energía en el tiempo preciso, y esto exige una organización mucho más compleja.

En realidad, pura poder armonizar la producción de electricidad con la demanda se necesita una calculadora que dirija las operaciones de abrir y cerrar las compuertas.

VEINTICUATRO CENTRALES ELÉCTRICAS EN  UNA
La central de la Rance organiza su producción de electricidad por medio de veinticuatro elementos, que, para el espectador, aparecen como veinticuatro canales que corren a lo largo de una gran presa, construida a través del extremo del estuario de la Rance.

El conjunto tiene una longitud total de 750 m, y consta de Oeste a Este de:
  • Una esclusa que permite la navegación entre la parte embalsada y la parte de mar de la bahía, de 65 metros de largo por 13 metros de ancho.
  • Una planta mareomotriz de 390 metros de largo por 33 de ancho, formada por 24 turbinas «tipo bulbo», de 10 MW cada una.
  • Un dique de entronque de 163 metros de largo que completa el cierre del estuario entre la planta y el islote de Chalibert.
  • Una pesa movil de 115 metros de largo, provista de 6 válvulas de tipo «wagon», capaces de funcionar a una diferencia de altura de la columna de agua de 10 metros; siendo su ancho de 15 metros cada una.
  • Una carretera de doble sentido que une Dinard con St-Malo, la cual se ve sometida al paso de 26.000 coches diarios, siendo 60.000 en verano.

Represa Mareomotriz en Francia Dos veces al día pasan 184 millones de metros cúbicos a través de la presa, cayendo de una altura de 11,4 metros y proporcionando energía. Se eligen los momentos del día en que se necesita más electricidad, las horas de máximo consumo.

Lo energía básica de una central eléctrica mareomotriz depende de dos factores: la superficie del canal en el que se retiene el agua y la diferencia entre la pleamar y la bajamar. Por tanto, conviene elegir un lugar en el que este valor sea el más grande posible. El estuario de la Ronce tiene una superficie de 22 kilómetros cuadrados y el nivel del agua varía 11,4 metros, como valor medio, en cada marea, lo que significa una cantidad de agua de 184 millones de metros cúbicos que entra y sale dos veces al día. El Mediterráneo no podría utilizarse nunca para producir energía eléctrica, ya que la marea sólo hace variar el nivel del mar en pocos decímetros.

Cuando la marea sube, el agua se precipita dentro de los canales, impulsando las turbinas a su paso. Así se produce mucha menos energía que cuando las presas están vaciándose; pero, a pesar de todo, todavía resulta conveniente.

Al final de la marea se utiliza energía de la red ordinaria, para que la turbina siga girando y llene la presa por encima del nivel exterior durante esta operación. Este aumento extra de nivel es un métodopara obtener algo a partir de nada.

Cuesta muy poco tomar electricidad del sistema para hacer subir, artificialmente, el nivel del agua, digamos 50 centímetros más. Pero tres horas después, cuando el nivel del agua en el exterior haya bajado unos 6 metros, esta misma agua tendrá una caída de 6 metros y, en la práctica, podrá proporcionar una energía 12 veces mayor que la empleada para subirla a su posición inicial.

El tiempo en que se almacena el agua a este nivel artificial depende de la demanda de electricidad. En el momento oportuno, el agua puede salir hacia el mar y proporcionar así la electricidad a la red. La turbina que convierte el flujo de agua en   una   corriente   eléctrica   utilizable   está sumergida y se encuentra en el paso de la corriente de agua. Está rodeada de agua por todas partes y posee una gran hélice, que es impulsada por la corriente.

La hélice es de láminas ajustables, que pueden orientarse de modo que se adapte a las condiciones imperantes. Se puede llegar a la turbina sumergida por medio de un túnel con una escalera.

Cuando una presa se ha vaciado y alcanzó el nivel de la marea que la rodea, se toma otra vez un poco de energía de la red para producir un sobrevaciado. Entonces, el ciclo completo puede empezar nuevamente.

Cada pequeña central funciona independientemente de las demás, para responder a las distintas necesidades de corriente, según las diferentes mareas. El número de ciclos diversos que se pueden utilizar en el curso de un mes es variable, permitiendo, así, una adaptación a las más diversas demandas de electricidad y el mejor aprovechamiento de toda clase de mareas.

Es necesario tener en cuenta el hecho de que las mareas se retrasan 50 minutos cada día y no tienen siempre la misma amplitud. Se calcula que la producción anual de la central será de unos 540 millones de kilovatios-hora por año, producción muy pequeña para una central eléctrica. Pero el combustible no faltará nunca y la planta será una experiencia útil para decidir si se puede emplear el mismo principio en otro lugar del globo terráqueo.

esquema represa mareomotriz

La turbina, que está sumergida y se encuentra en el paso de la corriente de agua, gira,
proporcionando   una   pequeña   cantidad   de   electricidad.

Se toma de la red una pequeña cantidad de electricidad,
para elevar artificialmente el nivel del agua  en el estuario.

Represa mareomotriz

A medida que se vacía el embalse, la turbina produce una
gran cantidad de electricidad en el sistema.

Cuando el embalse está vacio, se toma un poco do electricidad para hacer
girar la turbina y vaciar todavía más la presa.

FUENTES DE ENERGÍA ELÉCTRICA
Casi toda la energía eléctrica producida actualmente prosede de combustible! extraídos de la Tierra, que pueden encontrarse en una u otra forma. Estos combustibles —carbón, petróleo y uranio— se extraen, retiran y trasporté?; antes de utilizarlos para trasformar el agua en el vapor que hará funcionar los generadores eléctricos. Además de estas fuentes de energía, existen otras —ríos de corriente rápida y el calor procedente del Sol.

En todos los métodos convencionales, la energía encerrada en el combustible se convierte, primero, en energía calorífica. En el carbón y en el petróleo, lo que se convierte es energía química; en el caso del uranio se utiliza la energía desprendida en la fisión controlada de los núcleos de uranio.

En la instalación de la Ranee, la energía mecánica de la marea se convertirá directamente en energía eléctrica.

El procedimiento es similar, en principio, a las centrales hidroeléctricas que funcionan en todo el mundo, mediante la energía mecánica que libera el agua al caer de un nivel a otro. Esta energía se convierte directamente en electricidad Este proyecto de la Ranee también se parece mucho a otros de almacenamiento por bombeo, ya en servicio en Luxemburgo (en Vianden) y en el país de Gales (en Ffestinlog).

En ambos proyectos, como en el de la Ranee, sólo se pers fluir el agua a través de los equipos generadores cuando se requiere, es decir, cuando hay una demanda en el circuito eléctrico. En los proyectos de almacenamiento por bombeo, el agua se hace subir a una colina desde una reserva hasta otra más elevada, en los momentos del día en que no hay una gran demanda de electricidad. Se guarda hasta que la demanda alcanza un máximo y entonces se libera, dejándosela fluir a través de los equipos generadores, para producir un suplemento de energía eléctrica, muy necesario.

Otro ejemplo de conversión de una energía natural es la utilización de la energía solar. Una gran cantidad de energía radiante procedente del Sol alcanza la superficie de la Tierra durante el día y puede utilizarse para trasformar agua en vapor. Este vapor puede hacer funcionar turbinas generadoras. Tales proyectos se han puesto en marcha en Rusia a partir de la década del 60´.

Fuente Consultada
Enciclopedia TECNIRAMA Fasc. N° 118 Electricidad Producida Por Las Mareas

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR
La Naturaleza de la Luz

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar «qué pasaría si …» ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el «gran océano de la verdad estaba sin ser descubierto» delante de él. El científico siempre trabaja en las orillas del «gran océano de la verdad», esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban «qué pasaría si . . .» expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

«En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.»

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

«El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano»

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado «Óptica», éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio «vacío». Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Funcionamiento de Olla a Presión Historia de Papin Denis

Funcionamiento de Olla a Presión
Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, «inventor del reloj de péndulo», como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la «bomba al vacío», al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el «digestor», o «baño maría de rosca», que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: «Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida», y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Uso de Energia Atómica o Explosivos en Obras Civiles

Uso de Energía Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene «mayor poder» que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la «explosión» de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. «Explosión» no implica necesariamente «combustión»; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno «encerrado» como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas «propergoles»; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  «esterilizadas»).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares «esterilizadas», cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

Concepto de Calor Latente Investigación de Black Joseph

CONCEPTO DE CALOR LATENTE

CALOR LATENTE:  Cuando calentamos una substancia esperamos que su temperatura ascienda. Un termómetro colocado en una olla con agua sobre un calentador registrará un aumento gradual de la temperatura hasta llegar a los 100°C, en que el agua entra en ebullición. No hay más cambios de temperatura hasta que toda el agua se evapora, aunque el calentador siga suministrando calor. Este calor, que no se pone en evidencia por el aumento de temperatura, se denomina calor latente de vaporización del agua. Latente quiere decir «oculto».

Todo el calor que pasa al agua hirviendo se emplea en proveerla de la energía necesaria para transformarse en vapor. Las moléculas de vapor están mucho más alejadas entre sí que las del agua, y para separarlas es necesaria una cantidad de energía, que venza las fuerzas de atracción molecular.

Del mismo modo, todo el calor entregado al hielo se consume en transformarlo en agua, de modo que no queda calor disponible para elevar su temperatura.

Cada sustancia requiere calor «latente» para permitirle cambiar de estado sólido a estado líquido, o de líquido a gas.

Si el cambio de estado es de gas a líquido o de líquido a sólido, el calor «latente» es liberado.

Hablando en forma estricta, el calor latente se refiere a un gramo de substancia. Así el calor latente de vaporización del agua (calor latente del vapor) es la cantidad de calor necesaria para convertir un gramo de agua en vapor, sin cambio de temperatura.

Su valor es de casi 540 calorías. El calor latente de fusión del hielo es la cantidad de calor necesaria para convertir un gramo de hielo en agua, sin cambio de temperatura, y vale 80 calorías.

La nevera o heladera se basa en el calor latente de algún gas fácilmente licuable, como el amoníaco. Se comprime el gas y se lo convierte en un líquido. En este proceso el gas entrega su calor latente. El líquido se envía por tubos al gabinete.

Como en estos tubos la presión es menor, el líquido se gasifica nuevamente, tomando el calor necesario para este cambio de estado del gabinete y su contenido, y así hace bajar la temperatura del mismo.

La nafta volcada, sobre la piel da sensación de frío, porque se evapora rápidamente y absorbe calor latente.

Del mismo modo, la evaporación del sudor en los climas cálidos es el procedimiento que emplea la naturaleza para que mantengamos frescos nuestros cuerpos. Por otra parte, el calor latente liberado cuando se forma hielo en los grandes lagos de Estados Unidos es de gran utilidad para los fruticultores de la zona, porque evita las heladas.

//historiaybiografias.com/linea_divisoria2.jpg

PRIMERAS INVESTIGACIONES EN CALORIMETRÍA

Una de las formas de energía más familiar para nosotros es el calor. Diariamente hacemos uso de él para calentar nuestra casa, para preparar la comida, etc. La energía calorífica es debida al movimiento de las moléculas y de los átomos. La experiencia nos enseña que la energía de un cuerpo puede transformarse en calor, siendo también posible que la energía térmica se convierta en trabajo, como sucede en los motores de explosión o en las máquinas térmicas. Por todo ello decimos que el calor es una forma de energía.

DIFERENCIA ENTRE CALOR Y TEMPERATURA: Actualmente, está muy bien determinada la diferencia entre calor y temperatura, a pesar de que algunos estudiantes puedan confundir estos dos conceptos. Calor es la energia necesaria para calentar un cuerpo y temperatura es una medida de su grado de calor. Cuanto mas energía entreguemos mas temperatura tendrá el cuerpo.

Para pensar este tema, imaginemos que debemos calentar 1 litro de agua de 10°C a 20°C, es decir , elevarla 10°C mas. Para lograrlo debemos entregar energía a esa masa de agua, por ejemplo colocarla sobre la hornalla de una cocina. Observaremos que a medida que pasa el tiempo el agua se pone mas caliente, por lo que podemos concluir que a medida que entregamos energía el agua aumenta su temperatura. Vemos que hay dos conceptos definidos por un lado la cantidad de energía o calor entregado y por otro la medida de su temperatura.

Si por ejemplo ahora tenemos que calentar 2 litros de agua de 10°C a 20°C, entonces necesitaremos el doble de energia entregada, para lograr la misma temperatura.

Para medir la energia entregada en forma de calor, se define la caloría que es la cantidad de calor necesaria para calentar de 14°C a 15 °C un gramo de agua. La unidad así definida corresponde a una cantidad de calor muy pequeña, por lo que, generalmente, en la práctica se utiliza la kilocaloría, que corresponde a 1.000 calorías.

Se usa por definción de  14 a 15°C solo como una medida de referencia, en realidad lo que
objetivamente se quiere indicar, es que el aumento sea de 1°C.

Para medir temperaturas utilizamos un termómetro con diversas escalas, pero la mas popular es grados centígrados o Celsius, creador de esta escala, que comienza a O° cuando el hielo se congela y finaliza en 100°C cuando el agua entra en ebullición.

La temperatura (la intensidad de calor) puede medirse fácilmente usando un termómetro.  Por el contrario, para la medida del calor (cantidad de energía entregada para calentar la materia) se usa la caloría.

HISTORIA: Hace unos 200 años, Joseph Black llevó a cabo una serie de experimentos muy importantes sobre la medida del calor y las relaciones entre el calor y la temperatura.

Joseph Black fisico

Demostró que el hielo en fusión y el agua hirviendo, que produce vapor, absorben grandes cantidades de calor, a pesar de que no hay cambios de temperatura. Introdujo el concepto de calor latente, con el que designó el calor necesario para producir esos cambios de estado.

grafica calor latente

Observe por ejemplo que cuando la temperatura llega a B, por mas que se sigua agregando calor, la temperatura
permanece constante hasta que no haya mas sustancia sólida. Lo mismo ocurre para que la sustancia
cambie de líquida a gaseosa.

La energía necesaria para que una sustancia cambie de estado es: Q = m. L
Donde m es la masa de la sustancia considerada y L es una propiedad característica de cada sustancia, llamada calor latente. El calor latente se mide en Joule/kg en unidades del SI.

Black también descubrió que se necesitan distintas cantidades de calor para producir las mismas elevaciones de temperatura en masas iguales de sustancias diferentes. Por ejemplo, para aumentar la temperatura del agua de 15° a 25° hace falta aplicar 1,7 veces más calor que para producir el mismo cambio de temperatura en una masa igual de alcohol.

Para explicar esta variación entre las diferentes sustancias, Black introdujo la idea de calor específico. Al realizar este trabajo, sentó las bases de la medida del calor —la calorimetría—, que sigue teniendo vigencia aún. Durante los 100 años anteriores, o más, los avances de la química habían estado obstaculizados por la teoría del flogisto. Sin embargo, como Black no aceptaba las teorías que no estuviesen apoyadas por pruebas experimentales, hizo varias aportaciones valiosas a la ciencia química.

calor latente

Black definió el «calor latente» como la cantidad de calor para cambiar de estado una sustancia

Hasta mediados del siglo XVIII, se sabía muy poco acerca de los gases y, de hecho, muchas personas aseguraban que sólo existía un gas (el aire). Un siglo antes (en 1640, para precisar más), van Helmont había descubierto el gas que hoy llamamos anhídrido carbónico; pero, a causa del incremento de la teoría del flogisto, no se llegó a comprender la importancia de este hallazgo.

Black redescubrió el anhídrido carbónico en 1754, haciendo experimentos con dos álcalis débiles: los carbonatas de magnesio y de calcio. Comprobó que cuando estas sustancias se calientan, cada una de ellas produce un álcali más fuerte, liberando, al mismo tiempo, aire fijo (o sea, el anhídrido carbónico). El peso del álcali fuerte es menor que el del álcali débil del que procede.

Joseph Black nació en 1728, en Burdeos (Francia), de padres que descendían de escoceses. Después de pasar seis años en la escuela en Belfast, en 1746, ingresó a la Universidad de Glasgow, para estudiar química y medicina. En 1756, llegó a ser profesor de anatomía y de química en Glasgow.

Al cabo de 10 años pasó a la cátedra de medicina y química de la Universidad de Edimburgo. Black era muy popular entre los estudiantes porque preparaba concienzudamente los cursos y sus clases estaban ilustradas con muchos experimentos.

Al mismo tiempo que hacía notables aportaciones a la química y a la física, encontró tiempo suficiente para ejercer la medicina. Murió apaciblemente, todavía ocupando su cátedra, a la edad de 71 años.

Calor especifico

También definió el calor especifico, para tener en cuenta las diferentes cantidades de calor necesarias para producir un mismo aumento de temperatura en masas iguales de distintas sustancias.

No todos los materiales cambian su temperatura con la misma facilidad, ya que las partículas que los forman y las uniones entre ellas son diferentes. El calor específico Informa sobre la mayor o menor facilidad de las sustancias para aumentar su temperatura. El calor específico de una sustancia, ce, es la cantidad de calor necesaria para elevar un grado la temperatura de un kilogramo de dicha sustancia.

Algunos valores de calor específico expresado en: (Joule/Kg. °K)

Agua    4.180
Alcohol etílico    2.400
Hielo    2.090
Vapor de agua    1.920
Aire    1.000
Aceite    1.670
Aluminio    878
Vidrio    812
Arena    800
Hierro    460
Cobre    375
Mercurio    140
Plomo    125

Fuente Consultada:
Enciclopedia TECNIRAMA de la Ciencia y la Tecnología Fasc. N°112 Sabio Ilustre Joseph Black
Enciclopedia del Estudiante Tomo N°7 Física y Química

Conceptos Básicos de Electromagnetismo Historia y Aplicaciones

Conceptos Básicos de Electromagnetismo
Historia y Aplicaciones

Antetodo se aclara que la explicación sobre este fenómeno físico es sólo descriptivo y tiene como objetivo describir las características mas imporatantes del mismo. Es una especie de descripción tecnico-histórica para darle al interesado una somera idea de como funciona la naturaleza en lo que respecta a la interacción de campos magnéticos y eléctricos.

De todas maneras es una interesante descripción  orientada a todos los curiosos de la física o para quellos estudiantes principiantes que desean adentrarse en el mundo del electromagnetismo. Leer con detenimiento estos conceptos básicos, ayudarán de sobremanera a enteder luego las explicaciones matemáticas o conclusiones finales de las experiencias de laboratorio.

Si el lector desea un estudio mas técnico, con las correspondientes deducciones matemáticas que implican un analisis profundo del fenómeno, debería hacer nuevas búsquedas, ya que existen muchos y excelentes sitios que explican muy didacticamente al electromagnetismo.

INTRODUCCIÓN HISTÓRICA: Los fenómenos conocidos de la electricidad estática y del magnetismo permanente han sido observados durante unos 2500 años. William Gilbert, en Inglaterra, realizó muchas investigaciones ingeniosas en electricidad y magnetismo. En 1600, publicó De Magnefe, el primer libro concluyente sobre este tema, donde explica muchas de las  semejanzas entre la electricidad y el magnetismo.

Una y otro poseen opuestos (positivo y negativo en electricidad, polo norte y polo sur en electromagnetismo). En ambos casos, los opuestos se atraen y los semejantes se repelen, y también en ambos casos la fuerza de la atracción o repulsión declina con el cuadrado de la distancia.

Nosotros, igual que los primeros observadores, hemos notado semejanzas entre los fenómenos relativos a la electricidad y los relacionados con el magnetismo.

Por ejemplo:
1.   Existen dos clases de concentración eléctrica —más y menos— y dos clases de concentración magnética  —norte y sur.
2.   Tanto en electricidad como en magnetismo, concentraciones del mismo nombre se repelen entre sí; mientras que concentraciones de nombre diferente se atraen mutuamente.
3.   Los efectos eléctricos y los magnéticos se describen  en función  de campos.
4.   En electricidad y en magnetismo, las fuerzas de atracción y repulsión están de acuerdo con la ley inversa  de  los cuadrados.
5.   Cuerpos apropiados pueden electrizarse frotándolos (como cuando se frota un objeto de plástico con una piel); análogamente, cuerpos apropiados pueden ser imantados por frotamiento (como cuando se frota una aguja de acero con un imán).
6.   Ni las cargas eléctricas, ni los polos magnéticos son visibles, ni tampoco los campos asociados, eléctrico o magnético. Tanto en electricidad como en magnetismo, las concentraciones y sus campos se conocen sólo por sus efectos.

Quizás podamos encontrar otras semejanzas. Se puede ver de qué modo ellas llevaron a los primeros científicos a sospechar que la electricidad y el magnetismo estaban íntimamente relacionados, siendo, posiblemente, manifestaciones distintas del mismo fenómeno fundamental.

Cuando en 1800, el físico italiano Alessandro Volta descubrió la primera pila electroquímica útil, los hombres de ciencia tuvieron la primera fuente segura de energía para hacer funcionar circuitos eléctricos. Todavía no se encontraban pruebas de alguna conexión entre los fenómenos eléctricos y magnéticos. Por consiguiente, en la primera mitad del siglo XIX los sabios opinaban que «a pesar de las semejanzas aparentes entre la electricidad y el magnetismo, estos dos fenómenos no están relacionados entre sí».

Esta era la situación de 1819 cuando un profesor de ciencias danés, llamado Hans Christian Oersted, hizo una observación de gran importancia en este campo de la Física. Oersted, al parecer, había considerado y buscado un enlace entre la electricidad y el magnetismo.

Fisico Oerster

Hans Christian Oersted

De acuerdo con uno de sus alumnos, Oersted estaba utilizando una batería de las pilas voltaicas primitivas durante una de sus clases. En aquellos días, las baterías eran caras, difíciles de manejar y no duraban mucho tiempo.

Oersted deseaba usarla mientras fuera posible, así que colocó un alambre paralelo arriba de una brújula y cerró el circuito.

Posiblemente, Oersted trataba de demostrar a sus alumnos que la corriente eléctrica y el comportamiento de la brújula no estaban relacionados. Para su sorpresa, cuando cerró el circuito, la aguja de la brújula se movió y osciló a una posición que ya no era paralela al alambre. Oersted había tropezado con el fenómeno de que una corriente eléctrica está rodeada de un campo magnético.

Además, tenía su mente alerta y con el pensamiento abierto para reconocer un fenómeno inesperado   y   atribuirle   la   importancia   que   merecía.

Oersted efectuó muchos experimentos con estos nuevos fenómenos y, al principio del año siguiente, publicó una pequeña comunicación describiendo sus observaciones. Las noticias científicas viajan, en general, con rapidez y no pasó mucho tiempo cuando un gran número de investigadores capaces realizaban experiencias sobre electromagnetismo.

Entre ellos estaban Michael Faraday en Inglaterra, André Ampére en Francia y William Sturgeon, quien fabricó el primer electroimán con núcleo de hierro en 1823. Con toda seguridad el descubrimiento de Oersted, en su aula, fue un paso importante en el desarrollo de  los conceptos del electromagnetismo.

Una de las razones de que los efectos magnéticos de una corriente eléctrica fueran tan importantes es que introdujeron una nueva clase de fuerza. Todas las observaciones previas con cualquier tipo de fuerzas estaban relacionadas con acciones sobre la recta entre los cuerpos que producían la fuerza. Así, las fuerzas gravitacionales están siempre en la línea recta que une las dos masas; de este modo se comportan también las fuerzas atractivas y repulsivas entre cargas eléctricas y entre imanes.

Pero aquí, existía una fuerza donde la acción era perpendicular a la recta que une el alambre y la aguja de la brújula. Cuando Oersted colocó una corriente arriba y paralela a la brújula, la aguja giró alejándose de su posición paralela al alambre.

PARTE I: IMANES , MAGNETISMO Y CORRIENTES INDUCIDAS
En la Naturaleza existe un mineral, llamado magnetita por haber sido descubierto en la ciudad griega de Magnesia, que tiene la propiedad de atraer las limaduras de hierro. Este fenómeno se denomina magnetismo y los cuerpos que lo manifiestan se llaman imanes. Un imán tiene dos polos, uno en cada extremo, que llamanos Norte y Sur

Si tomamos un imán, que puede girar horizontalmente alrededor de su punto medio, y le acercamos un polo de otro imán se observa que los polos del mismo nombre se repelen y los de nombre distinto se atraen.

Al dividir un imán en varios trozos, cada uno de ellos, por pequeño que sea, posee los dos polos. Este comportamiento se explica suponiendo que los imanes están formados por una gran cantidad de minúsculos imanes ordenadamente dispuestos. Así, al frotar un trozo de hierro con con imán se ordenan los pequeños imanes que contiene el trozo de hierro, de tal modo que la acción magnética no se neutraliza entre ellos. El trozo de hierro así tratado manifiesta sus propiedades magnéticas y constituye un imán artificial.

Hoy se sabe que los imanes están formados por minúsculos imanes moleculares originados por el giro de electrones que dan lugar a corrientes eléctricas planas, y según el sentido de giro presentan una cara norte o una cara sur.

La región del espacio sensible a las acciones magnéticas se llama campo magnético.

Para visualizar el campo magnético, Michael Faraday (1791-1867), de quien hablaremos mas abajo, esparció limaduras de hierro sobre un papel colocado encima de un imán. Observó que las limaduras se situaban en líneas cerradas; es decir, líneas que parten de un polo del imán y que llegan al otro polo.

limaduras de hierro en un imán

Además, las líneas no se cortan. Estas líneas se llaman líneas de campo o de fuerza  y, por convenio, se dice que salen del polo norte y entran en el polo sur. No existe una expresión matemática sencilla que sirva para determinar el campo magnético en las inmediaciones de un imán, pero podemos decir que:

•  El campo magnético se reduce a medida que nos alejamos del imán.
•  El campo magnético depende del medio en el que situemos al imán.

Observemos el comportamiento de la brújula, frente al campo mágnetico que produce nuestro planeta.

El núcleo de la Tierra está compuesto  por una aleación de hierro y níquel. Este material es muy buen conductor de la electricidad y se mueve con facilidad por encontrarse en estado líquido.

La Tierra actúa como un imán: Campo magnético terrestre. Si tomamos una aguja imantada y la dejamos girar libremente, se orientará siempre en una misma dirección norte-sur. De ahí que al polo de un imán que se orienta hacia el norte geográfico le denominemos polo norte, y al otro polo del imán, polo sur. Esto quiere decir que la Tierra se comporta como un enorme imán. Y es debido a que a medida que la Tierra gira, también lo hace el hierro fundido que forma su núcleo.

El planeta Tierra es como un gran imán con dos polos.

 Los polos geográficos y los polos magnéticos de la Tierra no coinciden, es decir, que el eje  N-S
geográfico no es el mismo que el eje N-S magnético.

EXPLICACIÓN DE LAS EXPERIENCIAS:

Como parte de una demostración en clase, colocó la aguja de una brújula cerca de un alambre a través del cual pasaba corriente.

experimento de Oerster

Experimento de Oerster

La aguja dio una sacudida y no apuntó ni a la corriente ni en sentido contrario a ella, sino en una dirección perpendicular. 0rsted no ahondó en su descubrimiento, pero otros sí se basaron en él, y concluyeron:

1a-Antes de conectar la corriente eléctrica la aguja imantada se orienta al eje N-S geográfico.

1b-Al conectar el circuito eléctrico, la aguja tiende a orientarse perpendicularmente al hilo.

2a– Cambiamos el sentido de la corriente eléctrica invirtiendo las conexiones en los bornes de la pila.

Igual que en el primer experimento, antes de conectar la corriente eléctrica la aguja imantada se orienta al N-S geográfico. Pero al conectar ahora el circuito eléctrico, la aguja se orienta también perpendicularmente al hilo, aunque girando en dirección contraria a la efectuada anteriormente.

Las experiencias de Oersted demuestran que las cargas eléctricas en movimiento (corriente) crean un campo magnético, que es el causante de la desviación de la brújula; es decir, una corriente eléctrica crea a su alrededor un campo magnético.

•  La dirección del campo magnético depende del sentido de la corriente.
•  La intensidad del campo magnético depende de la intensidad de la corriente.
•  La intensidad del campo magnético disminuye con la distancia al conductor.

Llamamos campo magnético a la región del espacio en donde se puede apreciar los efectos del magnetismo, por ejemplo mientras la aguja se la brújula se desplaze hacia un costado, significa que estamos dentro de ese campo magnético. A medida que alejamos la brújula del conductor observaremos que el efecto se pierde pues el campo magnético creado desaparece. Para graficar un campo magnético utilizamos líneas circulares con flechas que muestran el sentido del campo y las denominamos: líneas de fuerza.

El físico francés André-Marie Ampére (1775-1836) quien continuó con el estudio de este fenómeno, dispuso dos alambres paralelos, uno de los cuales podía moverse libremente atrás y adelante. Cuando ambos alambres transportaban corriente en la misma dirección, se atraían de forma clara.

Ampere Fisico

André-Marie Ampére (1775-1836)

Si la corriente fluía en direcciones opuestas, se repelían. Si un alambre quedaba libre para girar, cuando las corrientes discurrían en direcciones opuestas, el alambre móvil describía un semicírculo, y cesaba de moverse cuando las corrientes tenían el mismo sentido en ambos alambres. Resultaba manifiesto que los alambres que transportaban una corriente eléctrica mostraban propiedades magnéticas.

Campo magnético creado por un conductor rectilíneo
Las líneas de fuerza del campo magnético creado por un conductor rectilíreo son circunferencias concéntricas y perpendiculares al conductor eléctrico. Para saber la dirección que llevan dichas líneas de fuerza nos ayudaremos con la regla de la mano derecha.

regla mano derecha

Regla de la mano derecha

Para aplicar dicha regla, realizaremos el siguiente proceso. Tomamos el hilo conductor con la mano derecha colocando el dedo pulgar extendido a lo largo del hilo en el sentido de la corriente. Los otros dedos de la mano indican el sentido de las líneas de fuerza del campo magnético creado.

Campo magnético creado por una espira
Una espira es un hilo conductor en forma de línea cerrada, pudiendo ser circular, rectangular, cuadrada, etc. Si por la espira hacemos circular una corriente eléctrica, el campo magnético creado se hace más Intenso en el Interior de ella. El sentido de las líneas de fuerza es el del avance de un sacacorchos que girase en el sentido de la corriente.

Campo magnético creado por un solenoide o bobina
Si en lugar de disponer de una sola espira, colocamos el hilo conductor en forma enrollada, obtendremos un solenoide o bobina. En este caso, el campo magnético creado por la corriente al pasar a través de la bobina será mucho mayor, puesto que el campo magnético final será la suma de campos creados por cada una de las espiras.

Así pues, en una bobina, el campo magnético será más intense cuanto mayor sea la intensidad de corriente que circule por el ella y el número de espiras que contenga la bobina. De esta forma, una bobina, por la que circule una corriente eléctrica equivaldría a un imán de barra. El sentido de las líneas de fuerza se determina a partir de cualquiera de sus espiras.

Solenoide

SOLENOIDE. Consiste en un conductor arrollado en hélice de modo que forme un cierto número de espiras circulares regularmente distribuidas unas a continuación de otras. Cuando una corriente eléctrica recorre el conductor, el solenoide adquiere las propiedades de un imán, con sus polos norte y sur correspondientes. Llegamos, pues, a la conclusión de que la corriente eléctrica crea un campo magnético. Las líneas de fuerza que en él se originan, por convenio, van del polo norte al polo sur en el exterior, y en sentido contrario por el interior. Para determinar el nombre de los polos de un solenoide se emplea una aguja imantada, hallándose que el extremo del solenoide por el que la corriente, visto desde fuera, circula por las espiras en el sentido de las agujas del reloj, es el polo sur, y el extremo opuesto es el polo norte.

ELECTROIMANES:

Como vimos anteriormente se puede obtener un campo magnético mayor a partir de corriente eléctrica si se acoplan muchas espiras, unas al lado de otras (por ejemplo, arrollando un hilo conductor), construyendo lo que se conoce como solenoide.

Para crear campos magnéticos aún más intensos, se construyen los electroimanes, que son solenoides en cuyo interior se aloja una barra de hierro dulce, es decir, un hierro libre de impurezas que tiene facilidad para imantarse temporalmente.

Cuando se hace circular corriente eléctrica por el solenoide, con centenares o miles de vueltas (es decir, centenares o miles de espiras), el campo magnético se refuerza extraordinariamente en su interior, y el solenoide se convierte en un poderoso imán con múltiples aplicaciones.

electroimán casero

Si arrollamos un conductor alrededor de una barra de hierro dulce (clavo) y hacemos pasar por
él la corriente eléctrica, tendremos un electroimán.

Al objeto de aumentar la intensidad del campo magnético creado por el electroimán, éstos se construyen en forma de herradura, pues así el espacio de aire que tienen que atravesar las líneas de fuerza para pasar de un polo a otro es menor.

Los electroimanes se emplean para obtener intensos campos magnéticos en motores y generadores. También se utilizan en timbres eléctricos, telégrafos y teléfonos, y actualmente se construyen gigantescos electroimanes para utilizarlos como grúas y para producir campos magnéticos intensos y uniformes, necesarios en trabajos de física nuclear.

Demos ahora un paso mas…

A partir de los descubrimientos de Oersted, algunos científicos de su época se plantearon si el efecto contrario podría ocurrir es decir, si un campo magnético sería o no capaz de generar una corriente eléctrica, algo que tendría unas interesantes consecuencias prácticas.

En 1831 Faraday observó que cuando se mueve un circuito cerrado a través de un campo magnético se origina una corriente eléctrica que recorre aquel circuito, y que se conoce con el nombre de corriente inducida. Dicha corriente cesa en el momento en que se interrumpe el movimiento.

induccion electromagnetica

Las experiencias de Faraday fueron las siguientes: tomó un  imán y lo colocó cerca de una bobina, la que tenía un conectado un medidor de corriente, llamado amperímetro o galvanómetro.

Pudo observar que cuando ambos elementos (imán-bobina) están en reposo, la corriente es nula, es decir, la aguja el amperimetro no se mueve.

Luego movió el iman hacia dentro de la bobina y notó que la aguja se movía, lo que determinó un pasaje de corriente por la misma. También notó que cuanto más rápido se desplazaba el imán mayor era la corriente medida.

Cuando el imán está en reposo, dentro o fuera de la bobina, no hay corriente y a aguja del galvanómetro permanece con medición nula.

También probó en sentido inverso, es decir, dejó inmovil el imán y desplazó la bobina y el efecto fue el mismo al antes explicado.

Conclusiones de Faraday: Inducción electromagnética
En todos los experimentos de Faraday, en los que se acerca un imán a un circuito cerrado o bobina, los efectos son los mismos si el imán permanece en reposo y es la bobina del circuito la que se mueve.

Faraday concluyó que para que se genere una corriente eléctrica en la bobina, es necesario que exista un movimiento relativo entre la bobina y el imán.

Si se mueve la bobina hacia el imán, hay una variación en el campo magnético en el circuito, pues el campo magnético es más intenso cerca del imán; si se mueve el imán hacia la bobina, el campo magnético también varía.

A la corriente generada se le llama corriente inducida y, al fenómeno, se le denomina inducción electromagnética.

Por lo tanto se obtiene energía eléctrica como consecuencia del movimiento del imán con respecto a la bobina o de la bobina con respecto al imán.

La inducción electromagnética es el fundamento de los generadores de corriente eléctrica, como son la dinamo y el alternador.

PARTE II: EFECTO MOTOR Y EFECTO GENERADOR

EFECTO MOTOR: Hasta ahora vimos ejemplos con circuitos cerrados pero sin que circule una corriente por ellos, simplemente el fenómeno aparece cuando movíamos el iman o la bobina respecto uno del otro.

Ahora estudiaremos cuando ademas del movimiento relativo, también circula una corriente por esa bobina. Para ello observemos la imagen de abajo, donde se coloca una alambre conectado a una batería dentro de un campo magnético de un imán.

concepto electromagnetismo

Efecto Motor

Un alambre se coloca horizontalmente a través de un campo magnético. Al fluir los electrones hacia la derecha de la mano, el alambre recibe la acción de una fuerza hacia arriba.

La fem (voltaje) de la batería y la resistencia del circuito son adecuados para que la corriente valga unos pocos amperios. Al llevar cabo este experimento, se encuentra:

Se observa que:

a.   Cuando el alambre tiene corriente y se coloca a través del campo magnético, el alambre recibe la acción de una fuerza. (si hay fuerza hay un movimiento)

b.   Cuando el alambre con corriente se coloca bastante lejos del imán no experimenta ninguna fuerza.

c.   Cuando el alambre no lleva corriente y se coloca a través del campo magnético, no experimenta ninguna fuerza.

d.   Cuando el alambre no lleva corriente y se coloca bastante lejos del imán, no experimenta  ninguna  fuerza.

e.   Cuando el alambre con corriente se coloca paralelo al campo magnético, no experimenta ninguna fuerza.

De estas observaciones se puede deducir:
(1) que debe tener corriente y
(2) que su dirección debe cruzar el campo magnético, para que el alambre reciba la acción de una fuerza.

f.   Cuando el alambre conduce electrones que se alejan  del observador,  recibe la  acción de una fuerza vertical.

g.   Cuando el alambre conduce electrones hacia el observador, recibe la acción de una fuerza vertical opuesta a la del caso (f ).

De esto se puede concluir que el sentido de la fuerza sobre el alambre forma ángulos rectos con el sentido de la corriente y con el del campo magnético. Se deduce, que el sentido de la corriente influye sobre el sentido de la fuerza, h.   Si  se invierten los polos magnéticos, también se invierta el sentido de la fuerza que actúa sobre el alambre.

De esta observación puede verse que el sentido del campo magnético, influye sobre el sentido de la fuerza. i.   Si se varía la intensidad de la corriente en el alambre, la magnitud de la fuerza resultante varía en la misma proporción.
Esto indica que la fuerza que recibe el alambre depende directamente de la intensidad de la corriente. j.

Si se substituye el imán por uno más débil o más  potente,   la  magnitud  de  la  fuerza resultante varía en la misma proporción. Por tanto, la fuerza sobre el alambre es directamente proporcional a la densidad de flujo del campo magnético. Debido a que los principios fundamentales de este experimento son básicos para el trabajo de motores eléctricos, la existencia de una fuerza que  actúa  sobre  una  corriente  que  cruza  un campo magnético, se llama efecto motor

El efecto motor no debe ser ni sorprendente ni misterioso. Después de todo, una corriente eléctrica es un flujo de electrones que experimentan una fuerza deflectora cuando atraviesan un campo magnético. Puesto que no pueden escapar del alambre, lo arrastran con ellos.

regla de los 3 dedos de la mano izquierda

La regla de los tres dedos también se aplica a la desviación de un alambre con corriente a través de un campo magnético. Use la mano izquierda, con el mayor apunte en el sentido del flujo electrónico, de negativo a positivo.

EFECTO GENERADOR:

concepto electromagnetismo

Efecto Generador

El alambre se empuja alejándolo del lector. Cuando esto se hace en condiciones apropiadas, los electrones libres del alambre son imrjulsados hacia arriba.

De nuevo se tiene un campo magnético debido a un potente imán permanente . Sin embargo, esta vez se mantiene el alambre vertical y lo mueve acercándolo y alejándolo, hacia adelante y atrás, atravesando el campo. El alambre en movimiento se conecta con un medidor eléctrico sensible —un galvanómetro— que indica la existencia de una corriente eléctrica débil y, por tanto, de una fuerza electromotriz o voltaje (fem) que produce dicha corriente. En este experimento el estudiante observará y deducirá lo siguiente:

a.   Cuando el alambre se mueve a través del campo magnético se produce una fem.
b.   Cuando el alambre se mueve en una región lejos del imán, no hay fem.
c.   Cuando el alambre se mueve paralelo al campo magnético, no hay fem.
d.   Cuando el alambre se mantiene fijo, en una posición lejos del imán, no hay fem.
e.   Cuando el alambre se mantiene fijo en una posición, dentro del campo magnético, no hay fem.
De estas observaciones se puede concluir que el alambre debe moverse a través del campo magnético para que se genere una fem. Es evidente, que la parte superior del alambre, es positiva o negativa con respecto a la parte inferior. De esto se puede deducir que la fem generada forma ángulos rectos con el movimiento y también con el campo magnético.
f.    Cuando el alambre se mueve a través del campo, alejándose del observador, se produce una fem.
g.  Cuando el alambre se mueve a través del campo acercándose al observador, se produce una fem cuya polaridad es opuesta a la del inciso anterior (f).
De estos hechos se puede ver que el sentido del movimiento  determina el  sentido  de la fem generada.
h. Si se invierten los polos magnéticos el sentido
de la fem generada se invierte. Esto indica que el sentido de la fem generada está determinado por el sentido del campo magnético.
i.   Si se varía la velocidad de movimiento del alambre, la magnitud de la fem generada varía también de acuerdo con ella. Este dato indica que la fem generada es directamente dependiente de la velocidad del alambre en movimiento.
j. Si se colocan imanes más débiles o más potentes, la magnitud de la fem generada disminuye o aumenta proporcionalmente. Por tanto, la fem generada es directamente dependiente de la densidad de flujo del campo magnético.

Si se realizan estos experimentos, puede ser difícil ver el movimiento de la aguja del galvanómetro, porque la fem es muy pequeña. Sin embargo, se puede fácilmente repetir un experimento de la imagen. Se enrolla una bobina de alambre con varias vueltas, se conectan sus extremos al galvanómetro y se mueve dicha bobina rápidamente hacia el polo N de una barra imantada.

El gavanómetro se desviará, demostrando que se ha producido una fem en la bobina. La fem cambia de sentido cuando se aleja la bobina del imán o cuando se usa el polo S en lugar del polo N.

En este caso el alambre en la bobina que se mueve en un campo magnético se desplaza, principalmente, de modo perpendicular al campo. De acuerdo con esto, debe generarse una fem. Se puede preferir pensar en la bobina de este modo: a través del área de la bobina pasa una cierta cantidad de flujo magnético, al mover la bobina hacia el imán, la cantidad de flujo a través de ella aumenta. Siempre que cambia el flujo por una bobina, se genera una fem.

Debido a que los principios en que se basan estos experimentos también son básicos para el funcionamiento de los generadores eléctricos, constituyen el llamado efecto generador: una fem se genera en un conductor, cuando éste se mueve a través de un campo magnético o cuando el campo magnético varía dentro de una bobina.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología
Enciclopedia Temática CONSULTORA Tomo 10 Física
FISICA Fundamentos y Fronetras Stollberg – Hill

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

El Espacio Curvo Teoría de Relatividad

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado «Formulación de la teoría general de la relatividad».

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a» la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La «línea recta» se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA TEORÍA GENERAL DE LA RELATIVIDAD

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando «revoleamos» una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o «empujados» contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue «la idea más feliz de mi vida«, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: «La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad».

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Feymann Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología
Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método cientí

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Usos del Transbordador Espacial Mision y Características

Usos del Transbordador Espacial
Misión, Características y Misiones de la NASA

El Transbordador Espacial, Una Nave de ida y vuelta: Uno de los principales problemas de la exploración espacial es el alto coste de las misiones. Hay que tener en cuenta que, hasta hace poco tiempo, los cohetes no eran reutilizables. Para cada lanzamiento se empleaba un cohete que se iba destruyendo por etapas, a medida que se quemaba el combustible. Las piezas desechadas eran abandonadas durante el viaje.

Por ello, se consideró importante desarrollar un vehículo espacial que fuera reutilizable, y no se destruyese en cada misión. Este vehículo fue la lanzadera espacial de la NASA.

En el momento del lanzamiento, la lanzadera tiene acoplados unos cohetes propulsores que se desprenden durante las primeras etapas del vuelo y caen al mar, de donde se recuperan para utilizarse de nuevo en vuelos futuros. Una vez desprendidos los cohetes propulsores, la lanzadera se impulsa por sus propios medios hasta entrar en órbita alrededor de la Tierra.

Después de orbitar alrededor de nuestro planeta, la lanzadera vuelve a aterrizar como un avión normal, a una velocidad de unos 300 km/h.

Imagen Abajo: El Transbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

https://historiaybiografias.com/linea_divisoria5.jpg

Los últimos cinco cambios claves para volver al espacio

CalentadoresColocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis –rayos X, ultrasonido, corriente electromagnética y termografía– de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmicoEl material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.»El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo», dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

https://historiaybiografias.com/linea_divisoria5.jpg

Hasta el momento, las únicas lanzaderas que están en funcionamiento son las de EE.UU. La agencia espacial soviética construyó, en los años ochenta del pasado siglo, una lanzadera espacial denominada Buran (en ruso, tormenta de nieve).

El prototipo llegó a realizar tres viajes de prueba, sin tripulación, con notable éxito, en 1988. No obstante, no eran buenos tiempos para la exploración espacial en aquel país. La Unión Soviética se desmoronó y, antes de que la agencia espacial rusa actual tomara las riendas, muchos proyectos quedaron en el aire por falta de financiación. Entre ellos, la lanzadera Buran.

Casi al mismo tiempo, la agencia espacial europea (ESA) desarrolló su propia lanzadera, la Hermes. Nuevamente fueron los problemas de financiación los que causaron el abandono del proyecto, a mediados de la década de 1990.

Actualmente, la última lanzadera en desarrollo es la X-38, de la NASA, una pequeña nave que servirá como vehículo de rescate y emergencia para la estación espacial internacional.

lanzadera espacial columbia

COLUMBIA es una lanzadera espacial recuperable fabricada en la NASA. Esta lanzadera espacial tiene un aspecto similar a un avión DC-9 pero con el ala en delta, y es el fruto de un programa de investigación aprovado en tiempos del presidente Kennedy y puesto en marcha por el presidente Nixon.

Para su despegue y puesta en órbita cuenta con dos cohetes que, una vez cumplido su cometido, se desprenden y caen hacia el océano frenados por dos grandes paracaídas, lo que posibilita su recuperación y posterior empleo en otros vuelos, después de una revisión y puesta a punto.

Finalizada su misión en el espacio, la lanzadera efectúa su reentrada en la atmósfera, soportando las altas temperaturas provocadas por la fricción merced a un recubrimiento antitérmico, y aterriza en una pista convencional, pero un poco más larga que las utilizadas por los aviones Jumbo.

Estas lanzaderas, que por sus características de recuperabilidad se denominan también transbordadores espaciales, pueden llevar cómodamente hasta cinco satélites de tamaño medio y una vez en órbita terrestre desprenderse de su carga, ahorrando así los enormes gastos de lanzamiento de cada satélite. También pueden acercarse hasta un satélite averiado en órbita y recuperarlo para devolverlo a la Tierra o proceder a su reparación in situ.

Su primer vuelo despegó de cabo Kennedy el 12 de abril de 1981 y tomó tierra 54 horas más tarde en el desierto de California. J. Young y R. Crippen fueron sus tripulantes y su misión principal fue comprobar el funcionamiento general de la aeronave.

El segundo lanzamiento se llevó a cabo el 18 de noviembre de 1981 y en él se realizaron diversos experimentos científicos y tecnológicos, entre los que cabe destacar las pruebas de funcionamiento de un brazo robot, de construcción canadiense, cuya finalidad es depositar y retirar satélites artificiales de su órbita.

El tercer lanzamiento se realizó el 22 de marzo de 1982 y en el trancurso del vuelo se comprobó el comportamiento térmico de la aeronave, dirigiendo alternativamente sus distintas partes hacia el sol y manteniendo cada orientación durante largo tiempo.

También se realizaron comprobaciones, que se repiten en cada vuelo, del comportamiento de las distintas partes de la nave en los momentos más comprometidos, despegue y reentrada en la atmósfera, junto con comprobaciones de compatibilidad de los distintos elementos que componen el ingenio espacial.

Se probó nuevamente el brazo telemanipulador, para lo cual se colocó en su extremo un conjunto de instrumentos destinados a estudiar las modificaciones producidas en el entorno espacial por el gas y el polvo que se escapan de la areonave, conjunto que pesaba 160 kg.

Se realizaron también experiencias de producción de un enzima, uroquinasa, que puede constituir un medicamento contra la formación de coágulos sanguíneos, y cuyo aislamiento en condiciones de ingravidez es mucho más fácil que en los laboratorios terrestres. Por último se realizaron experiencias de fabricación de microsferas de polestireno en condiciones de ingravidez, las cuales son muy útiles tanto en el campo médico como en el industrial.

Finalmente, el 22 de junio de 1982 se realizó un cuarto lanzamiento del Columbia, en el cual se repitieron las mismas experiencias que en el vuelo anterior y se añadieron otras dos.

Una de ellas consistió en ia separación por elec-troforesis de materiales de interés biológico, para observar las características del proceso en condiciones de ingravidez. La segunda fue una experiencia de interés militar, y por tanto sometida a restricciones informativas.

Con todo, se sabe que se trataba de probar un telescopio de rayos infrarrojos enfriado por helio líquido, con el que se pretendía detectar la radiación calórica emitida por un misil en vuelo, y además distinguir entre las emitidas por cada tipo de misil. Con la puesta a punto de este telescopio los Estados Unidos tendrían la base para el establecimiento de una red de satélites de alerta.

Este cuarto vuelo ha sido la última prueba del programa norteamericano del transbordador espacial, el cual entra ahora en su fase de utilización práctica, durante la cual el Columbia alternará sus vuelos con las nuevas aeronaves Challenger, Discovery y Atlantics.

Fuente Consultadas:
La Enciclopedia del Estudiante Tomo 05 Santillana
Actualizador Básico de Conocimientos Universales Océano