Historia de la Energía Nuclear

Biografia de Ramon Cajal Santiago y Su Obra Científica Premio Nobel

Biografía de Ramón Cajal Santiago y Su Obra Científica

Santiago Ramón y Cajal nace en Petilla de Aragón el 1 de mayo de 1852, hijo de Justo Ramón y Antonia Cajal. Toda su niñez y adolescencia van a estar marcados por los continuos cambios de residencia entre las distintas poblaciones del Alto Aragón, traslados motivados por la profesión de médico que ejercía su padre. Su formación se inició en Valpalmas, donde acudió a la escuela local, aunque de hecho su primer maestro fue su propio padre, que le enseñó a leer y a escribir, le inició en la aritmética, en geografía y en francés.

En el año 1860 su padre es nombra do médico en Ayerbe, y toda la familia se traslada a dicha localidad. Allí se convirtió en un pésimo estudiante y se acentuaron sus travesuras al verse más desatendido por su padre. Por estos motivos le enviaron a estudiar el bachillerato al colegio de los Escolapios de Jaca en 1861.

El régimen de terror imperante en dicha institución hizo sus padres cambiar de opinión y le mandaron a estudiar al instituto de Huesca. Durante estos años y por orden expresa de su padre, compagina los estudios con el trabajo en una barbería.

ramon y cajal santiago cientifico

Santiago Ramón y Cajal (1852-1934): histólogo español obtuvo el Premio Nobel de Fisiología y Medicina en 1906. Pionero en la investigación de la estructura fina del sistema nervioso, Cajal fue galardonado por haber aislado las células nerviosas próximas a la superficie del cerebro.  En 1892 se instaló en Madrid y fue nombrado catedrático de histología de la universidad de Madrid, donde trabajó y prolongó su labor científica hasta su muerte.

En 1873, ganó por oposición una plaza de Sanidad Militar y al siguiente año fue destinado a Cuba con el grado de capitán. Se doctoró en Madrid en 1877. En 1879 fue, por oposición, director de Museos Anatómicos de la Universidad de Zaragoza; catedrático de Anatomía en la Universidad de Valencia (1883).

Fruto de sus trabajos fue el Manual de Histología y técnica micrográfica (1889). Catedrático de Histología en la Universidad de Barcelona (1887), dio a conocer poco después sus grandes descubrimientos sobre las células nerviosas. En 1892 obtuvo la cátedra de Histología normal y Anatomía patológica de la Universidad de Madrid.
El Gobierno español creó el Laboratorio de Investigaciones Biológicas y la revista Trabajos de Laboratorio, que substituyó a la Revista trimestral de Micrografia, publicada por él desde 1897, y le encomendó la dirección de ambos.
Entre 1899 y 1920 dirigió el Instituto Nacional de Higiene; en 1906 compartió con C. Golgi el premio Nobel de Medicina por sus investigaciones acerca de la estructura del sistema nervioso. Además de la obra citada, deben mencionarse entre las fundamentales las siguientes; Textura del sistema nervioso del hombre y de los vertebrados (1899-1904), Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Reglas y consejos sobre investigación biológica.
clase de disección dada por Ramón Cajal
SOBRE SU TRABAJO CIENTÍFICO:
Teoría de la neurona
1889: De todas las células, las nerviosas parecen las más complejas, y de todos los órganos y sistemas de órganos, el cerebro y el sistema nervioso parecen los más complejos. Además, de todas las partes del cuerpo humano, el cerebro y el sistema nervioso son, o deberían ser, los más interesantes, puesto que determinan nuestra condición de humanos.
Waldeyer-Hartz (véase 1888) fue el primero en sostener que el sistema nervioso estaba constituido por células separadas y por sus delicadas extensiones. Estas últimas, señalaba, se aproximaban entre sí pero no llegaban a tocarse y mucho menos a juntarse, de modo que las células nerviosas permanecían separadas. Llamó a las células nerviosas neuronas, y su tesis de que el sistema nervioso está compuesto por neuronas separadas es la llamada teoría de la neurona.
El histólogo italiano Camillo Golgi (Í843 o 1844-1926) había ideado quince años antes un sistema de tinción con compuestos de plata, que ponía al descubierto la estructura de las neuronas con todo detalle. Utilizando esa tinción, pudo demostrar que la tesis de Waldeyer-Hartz era correcta.
En efecto, mostró que en las neuronas se operaban complejos procesos, pero que los de una no afectaban a los de sus vecinas, pese a estar muy próxima a ellas. Los delgados espacios que las separaban se llaman sinapsis (es curioso que esta palabra derive de la griega que significa «unión», pues a simple vista parece que se unen, pero en realidad no es así).

Santiago Ramón y Cajal (1852-1934) perfeccionó la tinción de Golgi, y en 1889 desentrañó la estructura celular del cerebro y del bulbo raquídeo con detalle, fundamentando sólidamente la teoría de la neurona. Por sus trabajos sobre la teoría de la neurona, Golgi y Ramón y Cajal compartieron el premio Nobel de medicina y fisiología en 1906.

En 1904 concluye su gran obra Textura del sistema nervioso del hombre y de los vertebrados. Dos años después, en 1906, recibe junto al histólogo italiano Golgi el premio Nobel de Fisiología y Medicina.
 
SUS OBRAS: Su labor incesante durante toda su vida se ve plasmada en otras obras como Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Manual técnico de anatomía patológica (1918) y la creación de nuevos métodos como el del formal urano para la tinción del aparato endoneuronal de Golgi y la técnica del oro sublimado.
En 1922 se jubila como catedrático y le es concedida la medalla de Echegaray. Durante sus últimos años sigue publicando nuevas obras como Técnica micrográfica del sistema nervioso y ¿Neuronismo o reticulismo?, considerada como su testamento científico.
Su vida concluyó en Madrid el 17 de octubre de 1934 pero su obra siguió y sigue viva gracias a la creación de la institución científica que lleva su nombre.
ramon y cajal
En 1952 se rindió un homenaje a don Santiago en «Hipócrates Sacrum» en Montpellier; sus discípulos, doctor Turchini y doctor Paulís, muestran una abundante ilustración sobre la vida de Ramón y Cajal.
A pesar de la natural aversión que Ramón y Cajal sentía por la relación social, su extraordinaria popularidad y prestigio mundiales le obligaron a frecuentar los círculos selectos, políticos, intelectuales y distinguidos de la época. Tuvo ocasión así de relacionarse con las personalidades más destacadas de la nación: José Echegaray, Menéndez y Pelayo, Benito Pérez Galdós,  José Canalejas, conde de Romanones, Pelayo, Maura, Silvela y tantos otros
SU OBRA DURANTE LA PRIMERA GUERRA MUNDIAL
En 1914 el cruel estallido de la Primera Guerra Mundial conmovió a toda Europa. Aunque España guardó neutralidad, en su interior se vivía una política muy agitada. Pero ajenos, o casi ajenos, a los tristes acontecimientos europeos y españoles, don Santiago y sus colaboradores continuaban sin desfallecer sus investigaciones en el laboratorio. Las dificultades eran mayores que en tiempos pasados.
Trabajaban aislados, porque la guerra había roto toda comunicación entre los sabios europeos. Desconocían, pues, cuantos adelantos científicos se producían en el mundo. Los materiales y el equipo, que debían importarse, habían elevado excesivamente su costo y aumentado las dificultades de obtención.
También la cuestión de imprenta había elevado sus precios hasta hacerlos prácticamente inasequibles a las posibilidades del laboratorio. Todo eran problemas para don Santiago. No obstante, el tesón y la voluntad hicieron milagros y el equipo de investigadores logró varios descubrimientos importantes.
Una vez terminada la guerra y restablecida la comunicación en el mundo científico, Ramón y Cajal sufrió las mayores tristezas. Los que eran sus mejores amigos, admiradores y seguidores de su obra, habían muerto. Así, van Gebuchten, Waldeyer, Retzius, Ehrlich, Krause y Edinger. Sólo quedaban algunos científicos americanos interesados en sus investigaciones, pero no conocían el español.
Y entonces puso rápidamente manos a la obra, para remediar aquel error de previsión suyo. Hizo que se tradujesen al alemán, francés e inglés los trabajos más importantes suyos y de sus colaboradores, aunque tuvo que pasar por la amarga decepción de que, en general, sus trabajos quedaban desconocidos, pues eran varios los científicos que se atribuían descubrimientos hechos por él años antes.
UN GRAN CURIOSO PRECOZ:
Las continuas travesuras de Santiaguo tenían la virtud de acabar la paciencia del maestro, y no era para menos. Como castigo solía mandarlo al «cuarto oscuro», habitación casi subterránea habitada por abundantes ratas. A los demás chicos este castigo les horrorizaba, pero al indómito Santiaguo le servía para preparar con calma y tranquilidad las travesuras del día siguiente.
Fue en una de aquellas solitarias estancias en el «cuarto oscuro» cuando descubrió lo que él creyó algo nuevo, el principio de la cámara oscura. Pero se trataba de un descubrimiento físico ya hecho por Leonardo de Vinci. El cuarto tenía un solo ventanuco que daba a la plaza del pueblo, en la que batía el sol. Un día, estaba Santiagué mirando distraídamente el techo, cuando se dio cuenta de que el rayo de luz que penetraba por la rendija del ventanuco proyectaba en el techo, cabeza abajo y con sus propios colores, las personas, carretas y caballerías que pasaban por el exterior.
Quiso ensanchar la rendija y las figuras se desdibujaron y hasta se desvanecieron. Entonces la hizo más estrecha con la ayuda de papeles y observó que cuanto más pequeña era la rendija más vigorosas y detalladas se hacían las figuras. El descubrimiento le dio qué pensar y acabó por convencerse, con sus infantiles conclusiones, de que la física era una ciencia maravillosa.
A partir de aquel día Santiagué sacó el máximo provecho de sus castigos, pues se dedicó a calcar sobre papel las vivas y coloreadas figuras que llegaban hasta su prisión para aliviar su soledad. No es de extrañar que si hasta entonces el «cuarto oscuro» no había sido para él un castigo penoso, menos lo fuese desde que hizo su descubrimiento, llegando a tomar verdadero cariño a su cárcel y sus sombras brillantes.
monumento de ramon y cajal
La gloria se hizo piedra en este monumento de Victorio Macho. La fuente de la vida y de la muerte mezclan sus aguas, mientras los ojos del sabio quieren escudriñar el hondo misterio que les junta.
Fuente Consultada:
Gran Enciclopedia Universal Espasa Calpe Tomo 32 Entrada: Ramón y Cajal
Celebridades Biblioteca Hispania Ilustrada Edit. Ramón Sopena
Historia y Cronología de la Ciencia y Los Descubrimientos Isaac Asimov

 

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Propiedades de las Piedras Preciosas y sus Minerales

CARACTERÍSTICAS DE LAS GEMAS O PIEDRAS PRECIOSAS

La mayoría de las piedras preciosas o gemas son minerales que se han formado en lugares muy variados en el interior de la Tierra. Estos minerales poseen una composición química definida y una ordenación atómica, que hace que sus propiedades físicas y ópticas permanezcan constantes o varíen solamente dentro de estrechos límites. Algunas propiedades tales como densidad e índice de refracción pueden medirse con precisión y ser utilizadas para identificar un mineral.

Casi todo el relieve de la Tierra se forma con rocas, y éstas con minerales. Algunas, como el mármol, se componen de un solo mineral. Otras, como el granito, comprenden varios, que en el granito pulido se ven a simple vista.

Las rocas más antiguas tienen tres mil millones de años. Otras son más recientes porque han pasado por una serie de vicisitudes: al principio la roca es ígnea, es decir, sale fundida por algún volcán o grieta de la Tierra; luego, el tiempo y el clima la dfishacen en polvo y se va acumulando en forma de sedimentos donde, con los años, forma rocas sedimentarias; por último, las altas presiones y temperaturas transforman rocas sedimentarias (la tiza) en rocas “me-tamórficas” (el mármol).

Los minerales son los componentes de las rocas, es decir, sus unidades básicas. Son sustancias naturales de composición química característica y se conocen muchos centenares. Algunos son elementos puros, como el oro, el cobre, la plata, etc., que se presentan en estado nativo; pero la mayoría de ios minerales son compuestos. No suelen clasificarse entre los minerales ciertas sustancias (eí petróleo) que provienen de restos de plantas y animales.

La identificación de los minerales es de gran importancia para la búsqueda de yacimientos; también es un pasatiempo interesante para el que tiene algunas nociones fundamentales. Cada mineral posee una composición química definida y características físicas propias (dureza, brillo, transparencia, etc.) que permiten identificarlo: son como sus impresiones digitales. Su estructura suele ser cristalina, o sea que sus partículas elementales se disponen, como en un panal, en una “malla cristalina” bien ordenada.

Ciertos minerales no son cristalinos, como el ópalo (una variedad de cuarzo): se los llama amorfos. Hay minerales bastante fáciles de reconocer, pero otros exigen cierto número de pruebas para distinguirlos.

Idealmente las gemas deben ser duras y no verse afectadas por las temperaturas, presiones, polvos abrasivos y agentes químicos que encontramos en nuestra vida diaria. La mayoría son silicatos que incluyen a las esmeraldas aguamarinas, peridotos y amatistas, así como otras muchas de rareza exótica.

El rubí, zafiro, espinela y crisoberilo son óxidos. El diamante es la única gema compuesta por un solo elemento químico —el carbono—. La nefrita, jadeíta y lapislázuli son rocas, es decir, agregados de uno o más minerales.

Las plantas y animales son las fuentes de las gemas «orgánicas» más frágiles que han sido usadas como adorno desde los tiempos más antiguos. El azabache y el ámbar son madera y resina fosilizadas de árboles extinguidos, mientras las perlas, las conchas y los corales son estructuras de carbonato calcico formadas por animales acuáticos. Los marfiles son los colmillos y dientes de los mamíferos terrestres y marinos.

CRISTALOGRAFÍA
Al examinar la mayoría de los minerales, que son cristales, vemos con sorpresa que sólo hay seis grupos básicos o sistemas de cristales. Estas seis familias tienen cada una muchos hijos, aunque todos ellos con un “aire de parentesco”.

Los minerales suelen ser impuros; sus impurezas son, a veces, las responsables del color; el rojo del rubí se debe al cromo; el azul del zafiro al titanio: ambos son sólo corindón, un óxido de aluminio cuya masa de fondo es incolora.

Hay seis grandes sistemas de formas cristalinas, o sea seis grandes grupos de redes cristalinas: regular o cúbico, tetragonal, hexagonal, rómbico, monoclínico y triclínico.

La división se basa en el número de líneas imaginarias, o ejes de simetría, que pasan por el centro del cristal, su longitud relativa y los ángulos que forman. En el sistema cúbico, por ejemplo, los cristales poseen tres ejes de igual longitud y perpendiculares entre sí, característicos del cubo, en geometría. La sal común se compone de pequeños cubos.

El tamaño de los cristales varía enormemente; algunos son invisibles, mientras ciertos cristales de espodumento, silicato con aluminio y litio, pueden alcanzar varios metros. Rara vez se encuentra un espécimen perfecto, y sólo una larga experiencia permite reconstruir el cristal tipo, a partir de un fragmento. El tamaño de un cristal depende de la lentitud con que se ha formado, o sea, de la oportunidad de que gozaron las partículas de ubicarse en la trama inicial ya formada.

La estructura-cristalina determina muchas de las propiedades minerales que son importantes en el tallado y la identificación de las piedras preciosas Por ejemplo, los átomos pueden estar menos fuertemente enlazados en algunos planos del cristal, indicando la dirección en la que se rompe más fácilmente o los planos de exfoliación.

La dureza puede cambiar también con la dirección del cristal. La estructura cristalina afecta a la trayectoria de propagación de la luz a través de esa sustancia.

En todos los minerales, salvo en los del sistema cúbico y los minerales no cristalinos, la luz se refracta formando dos rayos que viajan a distintas velocidades y con diferentes trayectorias a lo largo de la estructura cristalina. En los minerales coloreados los rayos pueden ser absorbidos de forma diferente en el interior de la estructura y emerger en forma de dos o tres colores distintos o sombras del mismo color. Este efecto se denomina pleoavísmo.

Desde tiempos antiguos muchos materiales, naturales y artificiales, han sido utilizados enjoyas y otros objetos preciosos. Sin embargo durante siglos el término piedra preciosa ha significado un mineral natural descable por su belleza, valioso por su rareza y suficientemente resistente para proporcionar un placer duradero.

PESO ESPECÍFICO
Es un buen indicio; el del azufre es 2, el del corindón 4, el de la casiteria 7, etc. Se necesita un aparato especial para determinarlo; es imposible hacerlo en el campo, aunque puede distinguirse manualmente entre minerales livianos y pesados. Un trozo de talco (peso específico 2,8) parece mucho más liviano que uno de apatita (peso específico 3,2).

ESCALA DE DUREZA DE MOHS
Una característica fácil de determinar es la dureza. Se recurre a la prueba del rayado; un material más duro raya a otro más blando, y dos de igual dureza no se rayan entre sí. Hay una escala convencional de dureza, la escala de Mohs. Se divide en diez grados numerados, cada uno más duro que el anterior; los índices son: 1, talco (el más blando); 2, yeso; 3, calcita; 4, feldespato; 5, apatita; 6, ortoclasa; 7, cuarzo; 8, topacio; 9, corindón; 10, diamante.

La dureza de un mineral se determina encontrando el más blando de la serie que lo raye. Por ejemplo, la calcita raya la galena, pero esta última rayará el yeso, de manera que su índice de dureza estará entre 2 y 3. Las piritas de hierro, parecidas al oro, tienen una dureza entre el 6 y el 7, mientras la del oro verdadero se sitúa entre el 2 y el 3.

Las series de Mohs se venden comercialmente. El número 10, diamante, suele faltar, pero no tiene mayor importancia porque difícilmente se hallará un mineral más duro que el corindón (si se lo encuentra es posiblemente diamante). Puede determinarse aproximadamente la dureza de un mineral aun sin esa colección. La uña tiene una dureza Mohs de alrededor de 2,5; un lápiz, 3; el vidrio común alrededor de 5,5; y la hoja de un cortaplumas aproximadamente 6.

tabla dureza de las pidras preciosas

Para ser apreciada, una joya debe ser también resistente. A pesar de que la esmeralda y el zircón son más duras que el cuarzo, son, sin embargo, frágiles, es decir, se separan en láminas fácilmente. El diamante y el topacio están entre las mucha gemas que pueden partirse si caen o son golpeadas contra objetos duros y lo hacen entonces según planos en los que los enlaces atómicos son más débiles. Las gemas más resistentes son la jadeíta, la negrita y el ágata; todas ellas tienen sin embargo una dureza igual o menor que 7. Su resistencia deriva del tipo de su estructura, que consiste en una masa de fibras o granos interconectados entre sí, lo que las permite ser modeladas en formas de exquisitos cuencos e intrincadas esculturas.

LOS MINERALES Y LA LUZ
Algunos minerales son transparentes: permiten ver nítidamente a través de ellos. Otros son opacos: la
luz no los atraviesa. Hay grados intermedios, translúcidos, lechosos. Pero la mayoría de los minerales opacos dejará pasar algo de luz si se los convierte en láminas muy delgadas.

Existen minerales que muestran doble refracción, es decir, que un texto leído a través de. ellos se ve doble; aquí los citamos únicamente por la influencia trascendental que han tenido en el desarrollo de toda la óptica.

El color es una característica importante de los minerales, especialmente para identificar los metálicos, pues sólo presenta ligeras variantes. Pero en minerales como el cuarzo, el corindón y el granate, el color se debe principalmente a las impurezas y puede variar notablemente. Minerales como la turmalina tienen diferentes colores, variables según desde donde se los mire.

Los minerales en polvo pueden tener un color distinto del superficial: el talco es verde, pero una vez molido es blanco. Del mismo modo, la hema-tita es superficialmente gris o negra, pero en polvo es pardo rojiza. La ventaja de moler los minerales es que su color es más uniforme que el superficial variable. Para conocer qué color tiene un mineral en polvo basta frotar un trozo sobre porcelana áspera.

La razón por la cual el color del polvo es diferente al del sólido se debe a la reflexión. La reflexión del vidrio, por ejemplo, es blanca, de manera que si pulverizamos una botella de vidrio verde, el polvo se vuelve cada vez más blancuzco debido a que aumenta el número de superficies que reflejan luz blanca.

El lustre o brillo del mineral depende de la cantidad de luz que refleja o absorbe. Puede ser resinoso (similar al de la resina) como en el azufre, perlado como la mica, sedoso en minerales fibrosos como el crisotilo, vitreo como el cuarzo, adamantino (de diamante) o metálico. Hay minerales que no poseen brillo: son de superficie mate (p. ej. la caolinita). Una interesante característica de los minerales es el grado en que desvían la luz. Los rayos de ésta siempre se desvían cuando pasan de un medio a otro de diferente densidad.

Si colocamos en agua vidrio molido cuyo índice de refracción o capacidad para desviar la luz, sea igual al del agua, se volverá invisible; si el índice de refracción de la luz es algo bajo podemos añadirle sal común: poco a poco llegará el momento en que no se vean más los trozos de vidrio. Para reconocer diamantes y otras sustancias, a fin de distinguirlas de sus falsificaciones, se usan líquidos especiales muy refractivos como el sulfuro de carbono.

Hay sustancias que, al recibir rayos invisibles como los rayos X o los rayos ultravioleta, devuelven rayos visibles: este fenómeno se llama fluorescencia. Bajo la luz ultravioleta ciertos minerales exhiben hermosos colores, como los de uranio. Algunos poseen esa propiedad por sus impurezas u otros factores. Uno de los materiales fluorescentes más hermosos es el rubí, que emite un brillante resplandor rojo al ser sometido a la luz ultravioleta.

Esta propiedad del rubí ha dado origen a la invención del Láser, instrumento que revoluciona la óptica y las telecomunicaciones, y del que nos ocuparemos en una nota especial. La luz es una onda, un serpenteo, que se produce en todos los planos. Pero en ciertos casos se la puede polarizar, es decir, hacerla vibrar en un solo plano. Las características ópticas especiales de un mineral, una vez reducido a una fina lámina y visto a través de un microscopio de luz polarizada, pueden servir de guía para su identificación.

El valor comercial de una gema depende de la calidad del color, de la ausencia de manchas internas y del peso. El peso de una gema se mide en quilates (5 quilates = 1 gramo) y las gemas son normalmente vendidas por peso, a tanto por quilate. La densidad de un mineral gema varía de manera que un zafiro amarillo parecerá más pequeño que una citrina menos densa de peso similar. La densidad de las gemas se mide como peso específico, comparando el peso de la gema con el peso de un volumen igual de agua.

CLIVAJE Y FRACTURA
Las fracturas de un mineral son otro indicio para clasificarlo. Se llama clivaje la tendencia a partirse más fácilmente según ciertos planos, llamados planos de clivaje. El tipo de clivaje se define seeún el número de “planos” y sus ángulos relativos. Tomemos un ejemplo sencillo: la galena tiene clivaje cúbico; se observan tres planos de clivaje que forman ángulos rectos entre sí. Cuando se desmenuza un cristal de galena se obtiene una cantidad de pequeños y brillantes cubos. Uno de los tipos más interesantes es el clivaje basal o laminar, en el cual hay un solo plano, paralelo a la base del cristal, como en la mica, que se divide en finísimas Láminas u hojas.

Cuando un mineral no se rompe según planos determinados, se dice que se fractura. Todos los minerales pueden fracturarse, pero no es probable que lo hagan, si poseen un plano definido de clivaje. Hay ¡diferentes tipos de fractura, por ejemplo: fibrosa, concoidea, irregular, etc. Por ejemplo el crisotilo (mineral de amianto) forma fibras que pueden hilarse y tejerse. La fractura concoidea puede apreciarse en la obsidiana (vidrio volcánico).

ANALISIS A LA LLAMA: Existe un gran número de ensayos químicos para determinar la naturaleza de un mineral. El ensayo a la llama se basa en el color característico que el mineral imparte a ésta. Con los minerales de sodio (sal común, sulfato de sodio, bórax, etc.) la llama adquiere una intensa coloración amarillenta. Los de estroncio producen un hermoso color carmín; por eso se usa en los fuegos artificiales.

analiis de minerales a la llama

Los minerales de cobre la colorean de azul o verde, etc. Si se usa un mechero de Bunsen conviene recordar que, si no recibe suficiente aire, su (lama es amarillo brillante; pero si tiene suficiente oxígeno hay una zona interior oscura tan fría, que una cabeza de cerilla, perforada por un alfiler y suspendida en esta zona, no se enciende. El mineral debe colocarse en la zona azul violeta o cono exterior de la llama del mechero de Bunsen. Ésta llega a una temperatura suficiente para los metales alcalinos (minerales que contienen sodio, potasio, etc.); pero otros precisan Mamas más calientes.

ANÁLISIS ESPECTROQUÍMICO
Ld luz emitida o absorbida por un átomo es como su fotografía individual. Cada átomo tiene su propio espectro de rayos, que son de luz o de sombra, según el átomo las emita o las absorba. Pero de todos modos el espectro de un átomo es un método de análisis: para ello basta obligarlo a que emita luz. Actualmente se prefieren las chispas, más enérgicas.

ANÁLISIS CON MICROSCOPIO
Este es un método moderno. Por ejemplo, el zafiro y el rubí natural tienen líneas de acumulación hexagonales y burbujas angulares, mientras que en los sintéticos las líneas de acumulación son curvas y las burbujitas son esféricas. Los microscopios electrónicos permiten observar partículas ínfimas en las arcillas, definiéndolas claramente. Cada vez la industria se acerca más a los minerales sintéticos, como en el caso de los rubíes para los relojes.

Cuando se sumergen un diamante falso y uno genuino en un líquido que desvíe los rayos luminosos en la misma proporción que el diamante falso, sólo el diamante real quedará visible.

LA BELLEZA: La belleza del color combinada con una perfecta transparencia es el ideal de belleza de muchas gemas. Sin embargo, en ciertas ocasiones, las inclusiones de minerales pueden ser la atracción principal de algunas de ellas, produciendo el colorido similar al de las lentejuelas del cuarzo venturina y la piedra del sol, y reflejando los ojos de gato y estrellas que brillan desde algunos crisoberilos y zafiros.

La atracción de las más sutiles ágatas coloreadas y jaspes está ligada a la enorme variedad de modelos y texturas que se desarrollan cuando ese mineral crece: su crecimiento en bandas y los fragmentos minerales incorporados hacen que se asemejan a menudo a exóticos paisajes y jardines.

La mayoría de las gemas muestran muy poca belleza en estado bruto: su auténtico color y lustre se revelan solamente por la destreza del tallado y del pulido. La mayor belleza del diamante alcanza todo su esplendor con el tallado preciso y apropiado al tamaño de la piedra.

Cuando llevamos joyas nuestros movimientos crean unos continuos cambios, que resultan de la relación mutua entre las piedras preciosas y la luz que las atraviesa, añadiendo destellos y luces a su color. Los focos realzan la «vida» de los diamantes, rubíes y esmeraldas, mientras suaves luces aportan el brillo al ámbar y a las perlas.

Respecto a la rareza, las gemas pueden ser raras en uno o más aspectos. Muchas son variedades de materiales comunes, y su rareza reside en un color o transparencia excepcionales. El cuarzo y el feldespato juntos constituyen cerca de las dos terceras partes de la corteza terrestre, pero la mayoría de sus variedades son grises o cremas.

Muy poco cuarzo posee el bonito color y la intachable transparencia de una fina amatista y raramente el feldespato labradorita muestra la iridiscencia del arco-iris . Los minerales gemas son raros aun en sus yacimientos: los diamantes constituyen una mínima proporción de su roca madre, la kimberlita —alrededor de 5 g. en 100 T.—.

FINALMENTE EL TALLADO: Un diamantista hábil puede convertir un guijarro en bruto en una brillante y valiosa piedra preciosa. El conocimiento necesario para conseguir estas transformaciones se ha ido haciendo a lo largo de muchos siglos, y hoy día es posible seleccionar el tallado que ponga de manifiesto las cualidades de cada gema.

Cuando se elige la mejor talla para una piedra preciosa, el diamantista debe considerar la forma del material en bruto y la magnitud y posición de los posibles defectos, tales como las fracturas o inclusiones. También debe tener en cuenta las propiedades ópticas del mineral y sus características cristalinas: es difícil conseguir un buen pulido paralelo a las direcciones de exfoliación, y las gemas pleocroicas han de estar talladas con una determinada orientación para que puedan mostrar su más bello color.

Sin embargo el tallado es a menudo un compromiso entre alcanzar el máximo lucimiento de la belleza de la gema y obtener la piedra preciosa de mayor tamaño posible.

Partes y Facetas de una Talla Brillante

IMAGENES DE LAS GEMAS MAS UTILIZADAS EN JOYAS

Diamante

Gema: Rubí

Gema: Zafiro

Gema: Esmeralda

Gema: Ópalo

Mineral: Amatista

Gema: Ágata

Gema: Turmalina

Gema: Jade

ALGO MAS…
LAS PIEDRAS PRECIOSAS ARTIFICIALES

La fabricación de las piedras preciosas artificiales ha sido, desde la antigüedad, un constante empeño del hombre. Estos esfuerzos tuvieron en general muy poco éxito hasta que, a principios del siglo XX, se sintetizaron los primeros rubíes. Gracias al considerable avance tecnológico producido por la segunda guerra mundial y a los recientes avances en la física del estado sólido, se han conseguido, en este campo, considerables progresos.

La posibilidad de estudiar determinados procesos físicos en monocristales ha aumentado su importancia, y los cristales producidos artificialmente no sólo son utilizados en investigación sino que también han encontrado aplicaciones en la industria.

La importancia de las piedras preciosas se debe, principalmente, a su dureza y, en segundo lugar, a los cambios que determinan en su color y en sus propiedades físicas, en general, las trazas de impurezas. En uno de los métodos empleados ,el método de presiones ultraelevadas, es necesario utilizar, simultáneamente, grandes presiones y altas temperaturas, problema que fue parcialmente resuelto con el empleo de un material denominado pirofilita, que tiene la ventaja de que su punto dé fusión aumenta considerablemente con la presión.

La síntesis del diamante, efectuada por la General Electric estadounidense en 1955, se consiguió por este método, con el que pueden lograrse, en la zona de trabajo, presiones de unas 150.000 atmósferas a 3.500°C, siendo necesaria por tanto una prensa hidráulica de gran capacidad, que resulta difícil de construir. Este problema fue parcialmente resuelto con la introducción del yunque tetraédrico, el cual emplea cuatro émbolos, que ejercen la presión sobre las cuatro caras del yunque. Con esta disposición, es posible conseguir 80.000 atmósferas a bajo costo y con maquinaria fácil de construir. Además de diamantes, se han sintetizado, con este método, borazón (forma cúbica del nitruro de boro) y una variedad del granate.

Con el método de fusión a la llama, se obtienen rubíes de alta calidad. Su fundamento es muy sencillo: sobre uno de los extremos de una semilla de rubí (pequeño monocristal alargado, obtenido previamente) se va dejando caer alúmina finamente pulverizada, mientras se calienta con un soplete. El polvo de alúmina funde y cae sobre el extremo superior de la semilla, que se va retirando lentamente de la llama a medida que el cristal crece. De este modo, se pueden obtener con facilidad mono-cristales cilindricos de hasta 45 cm. de longitud.

Todos los procesos descritos están, naturalmente, automatizados: el flujo de polvo, la temperatura y posición de la llama, así como el desplazamiento vertical del monocristal. Uno de los inconvenientes principales de este método es que los cristales se encuentran sometidos a elevadas presiones internas, como resultado de la desigual distribución de temperaturas, por lo que es frecuente él agrietamiento espontáneo.

El método hidrotérmico ha demostrado ser extraordinariamente valioso en la producción de monocristales de cuarzo (y otras sustancias silíceas) que se obtienen por cristalización a partir de soluciones acuosas. Para ello se utiliza un autoclave de paredes gruesas, capaces de resistir unos 1.000 atmósferas y 500°C de temperatura.

Dentro del autoclave se encuentra la disolución acuosa de la sustancia de partida (por encima de 100°C la solubilidad en agua aumenta considerablemente), y suspendidas de su parte superior se sitúan las semillas. La solución se calienta por una plancha metálica adosada a la base del autoclave, con lo que se crea en su interior un gradiente de temperatura. La sustancia de partida se disuelve en el fondo y la solución asciende por confección.

En la región superior, más fría, la solución está sobresaturada y la sustancia cristaliza sobre las semillas. Este método presenta varias limitaciones, como pueden ser el elevado costo del instrumental necesario y la imposibilidad de observar el crecimiento, lo que impide que en un momento dado puedan regularse la temperatura y le velocidad de cristalización con el fin de controlar los sucesivos pasos del proceso.

Actualmente se han desarrollado procesos con el misme fundamento, pero que utilizan, en vez de agua, tundentes sólidos ce puntos de fusión relativamente altos, tales como los halogenuros y carbonatos alcalinos, y el óxido v el fluoruro de plomo.

Se han obtenido diamantes de 0,2 g. por el método de las presiones ultraelevadas, con el empleo adicional de catalizadores metálicos que aceleran la conversión directa del carbono en diamante. El color de los cristales obtenidos puede modificarse alterando las condiciones de crecimiento.

Las variedades más conocidas del corindón son el rubí y el zafiro. Como ya hemos indicado pueden obtenerse ambas piedras preciosas por el método de fusión a la llama. El cromo proporciona al corindón una tonalidad roja; el níquel, amarilla; el titanio, azul, y el vanadio, azul verdoso. Aunque los detalles son secretes, el proceso más apropiado para la síntesis de esmeraldas (BeO – Al2O3 – 6 SiO2) parece estar fundado en el método hidrotérmico, aunque no pueda descartarse la utilización de un fundente sólido, si tenemos en cuenta los éxitos obtenidos con este último procedimiento en la obtención de otros monocristales.

Ver: Las Rocas   –   Minerales Para La Industria    –   Minerales de la Tierra

Fuente Consultada
Revista TECNIRAMA N°6 Encilopedia de la Ciencia y la Tecnología – Como se identifican los minerales
Las Piedras Preciosas Geological Musseum Ciencias de la Naturaleza

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía. El proceso fue larguísimo. Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga. Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas. Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia. 3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento. 1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  “Principia”,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA

Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Amianto Aplicaciones, Propiedades y Riesgos de Cancer

El amianto o asbesto es conocido por el hombre desde hace por lo menos 2.500 años. A causa de su singular resistencia al fuego, se atribuían a esta sustancia propiedades mágicas. Se dice que el emperador Carlomagno demostró sus poderes sobrenaturales arrojando al fuego un mantel de amianto que recuperó intacto. La resistencia al fuego es la propiedad que más llamaba la atención de los antiguos, pero no es la única cualidad del amianto, que ha probado ser enormemente apto en aplicaciones industriales.

Es un excelente aislante del calor, del sonido y de la electricidad, y su naturaleza fibrosa permite que se pueda trabajar para elaborar telas para trajes, etc. Mezclado con otros materiales como el cemento proporciona un excelente material de construcción. El amianto es flexible, resistente a los ácidos y a los álcalis y no se deteriora  con el  tiempo.

Amianto

Hablar solamente de “amianto” no es precisar mucho, pues el amianto no es una sustancia única. Hay muchas variedades de él, y cada variedad posee en distinto grado las propiedades ya indicadas.

El valor comercial del amianto depende grandemente de dos cualidades: su incombustibilidad y su singular estructura fibrosa. La última permite separarle en fibras o filamentos que, en la variedad usada con más frecuencia, poseen una gran resistencia a la tracción y son muy flexibles.

Podemos decir que las principales propiedades del amianto son:

Incombustibilidad.
Elevado aislamiento térmico.
Elevado aislamiento acústico.
Resistencia a altas temperaturas.
Resistencia al paso de electricidad.
Resistencia a la abración.
Resistencia al ataque de microorganismos.

Debido a estas especiales características, el amianto se ha usado para una gran variedad de productos manufacturados, principalmente en materiales de construcción (tejas para recubrimiento de tejados, baldosas y azulejos, productos de papel y productos de cemento con asbesto), productos de fricción (embrague de automóviles, frenos, componentes de la transmisión), materias textiles termo-resistentes, envases, paquetería y revestimientos, equipos de protección individual, pinturas, productos de vermiculita o de talco. El amianto también está presente en algunos alimentos.

YACIMIENTO Y ORIGEN
El amianto, tal como se encuentra en la naturaleza, es una roca, tan sólida y densa como el granito. Se encuentra subterráneamente en vetas delgadas, incluidas en rocas que tienen una composición química parecida.

Incluso hoy día no hay una idea clara de cómo el amianto se formó en la corteza terrestre. La teoría más generalizada es la de que la roca subterránea se transformó por la acción del agua caliente, que contenía sales disueltas y anhídrido carbónico. Al producirse grietas en la roca, éstas se llenaron de agua, y, durante largos períodos de tiempo, ocurrieron reacciones químicas, que dieron lugar a capas gelatinosas que eventualmente cristalizaron para formar el mineral, fibroso y estrechamente empaquetado, que hoy día conocemos.

VARIEDADES   DE   AMIANTO
El nombre de amianto, en una acepción amplia, puede darse a todo mineral natural capaz de ser manejado o transformado en fibras. Hay, por lo menos, treinta tipos distintos de minerales que forman lo que se llama el grupo asbestiforme, y que tienen grandes semejanzas, pero solamente seis poseen importancia comercial.

En orden de importancia, son:   el crisotilo  o  amianto blanco,  la crocidolita o amianto azul, la amosita, antofilita, tremolita y actinolita. Se dividen en dos grupos principales: los amiantos de crisotilo (o serpentina) y los amiantos anfibólicos.

Las diferencias entre los distintos tipos provienen de la roca o matriz donde el amianto se encuentra. Desde el punto de vista químico, son complicados silicatos de magnesio que, generalmente, contienen uno o varios de los siguientes metales: sodio, aluminio, hierro y calcio.

CRISOTILO
Es la variedad más importante de mineral de amianto, y constituye el 80 ó 90 por ciento de la producción mundial. Se encuentra principalmente en Canadá, en la U.R.S.S. y en Rodesia del Sur. Su color varía desde el blanco puro hasta el verde grisáceo, dependiendo de las impurezas que contenga.

El crisotilo no se altera a temperaturas de hasta 450 ó 500 °C, en que empieza a perder agua estructural. Sus fibras resisten la acción de los álcalis, pero no la de los ácidos, y los ácidos minerales  fuertes  las  disuelven  completamente.

Crisolito o Amianto Blanco

Algunas fibras de crisotilo tienen hasta ocho centímetros de longitud, aunque la mayoría están por debajo de los cuatro centímetros. Son fuertes y flexibles, trabajándose con facilidad, probablemente a causa de las cantidades de talco que se encuentran en ellas.

Estas propiedades, juntamente con su resistencia, longitud, y mala conductividad eléctrica (gran resistencia al paso de la corriente), lo hacen muy adecuado para la manufactura de amianto textil. Cuando se muele la roca, el amianto se descompone en fibras, y la parte de roca adyacente se pulveriza.

De esta forma, ambos se separan fácilmente. Frotando la superficie de la roca, pueden obtenerse fibras extremadamente finas, que, de hecho, son haces de fibras todavía más finas, las cuales pueden separarse a mano. Incluso esas fibras pueden subdividirse a su vez.

Con el microscopio electrónico han podido medirse los diámetros de las fibras más finas, que son del orden de dos millonésimas a veinte millonésimas de centímetro. Las fibras que se usan en la práctica son mucho  más  gruesas.

Los  estudios  modernos  con  el  microscopio electrónico sugieren que. las fibras de crisotilo son huecas, a pesar de que los tubos pueden estar rellenos de material menos cristalino, pero con la misma composición química. Esto serviría de explicación al hecho de que las fibras sean suaves, elásticas y absorbentes. Su resistencia a la tensión es muy grande; por término medio, del orden de la de una cuerda de acero para piano del mismo diámetro, aunque se han obtenido valores de resistencia doble.

AMIANTOS ANFIBÓLICOS
Los amiantos que derivan de este grupo se diferencian de los del crisotilo por su mayor riqueza en sílice, hierro, aluminio, sodio y calcio. Sin embargo, contienen menos magnesio. Cada uno de ellos incluye dos o más de esos metales en diferentes proporciones. La crocidolita, que tiene un color azul peculiar, y la amosita, que varía desde el blanco al pardo amarillento, son las variedades más importantes. Ambos son silicatos de hierro; el primero contiene dos tipos de hierro y sodio, y el segundo, hierro ferroso y magnesio.

La crocidolita posee magníficas propiedades de resistencia al calor, semejantes a las del crisotilo. Los amiantos anfibólicos son más ásperos al tacto y, por’consiguiente, más difíciles de trabajar, y menos aptos para la fabricación de tejidos, a pesar de que sus fibras son más largas y que su resistencia a la tracción es grande (mayor que la de las cuerdas de acero para piano). La propiedad más importante de la crocidolita es su resistencia al ataque por los ácidos.

La crocidolita se encuentra principalmente en Sudáfrica, pero también hay grandes yacimientos en Bolivia y en Australia. La amosita se encuentra solamente en Sudáfrica. La resistencia a la tensión es mediana, pero, para algunas aplicaciones, su resistencia al calor resulta superior a la del crisotilo o la crocidolita. Sus fibras pueden tener hasta 30 centímetros de largo, y se usa principalmente para la fabricación de aislantes térmicos. Dado que la amosita es menos flexible y tiene menor resistencia a la tracción que el crisotilo y la crocidolita, sus aplicaciones son bastante limitadas.

Las fibras de los amiantos anfibólicos no sólo son más largas que las del amianto blanco, sino también más gruesas (de 400 a 100 milésimas de centímetro, en vez de dos millonésimas de centímetro). Son sólidas, y, por lo tanto, duras y elásticas, pero quebradizas.

Riesgos del amianto: Existe el riesgo de contraer determinadas enfermedades específicas provocadas por la inhalación de fibras de amianto: asbestosis, cáncer pulmonar y mesotelioma de pleura y/o peritoneo, además de una irritación crónica de la dermis.

Está compuesto por fibras microscópicas que pueden permanecer en suspensión en el aire el tiempo suficiente para que representen un riesgo respiratorio. Cuando el contacto es prolongado puede provocar son enfermedades del aparato respiratorio. El cáncer de pulmón es la más mortal de las enfermedades que afectan a las personas expuestas al amianto.

Otra enfermedad respiratoria es la asbestosis es una enfermedad asociada directamente a la exposición al amianto. Consiste en el desarrollo de una fibrosis pulmonar tras la inhalación de asbesto que con el tiempo dificultad para respirar.

MINERÍA Y TRATAMIENTOS
La mayoría de las rocas que contienen los minerales del amianto se explotan relativamente cerca de la superficie, por lo que esta minería resulta relativamente económica y sencilla, en comparación -con la minería profunda. Con frecuencia, las explotaciones están al descubierto.

A veces, sin embargo, se practican túneles en el frente de la roca, y el mineral se saca en vagonetas. El mineral bruto, con grandes cantidades de ganga, se pica o se dinamita de la roca, de forma parecida a como se hace con el carbón, y se separa provisionalmente a mano. La roca acompañante se tira y el material se lleva al grupo separador donde se extraer; las fibras largas.

Éstas forman el 3 % del mineral extraído, y son susceptibles de ser tejidas. El resto se tritura y se pasa por tamices. Los residuos se aventan para recuperar las pequeñas cantidades de amianto que puedan quedar. La producción de fibra es pequeña: una tonelada de fibra por cada ocho o hasta treinta toneladas de roca triturada.

La fibra de amianto separada por los tamices se lleva a un molino que funciona como un mortero, y a continuación se pasa a un molino de alta velocidad, donde las fibras se separan aún más.

APLICACIONES DEL AMIANTO
Las fibras largas usadas para tejer reciben un tratamiento más cuidadoso para separar las longitudes desiguales, los fragmentos de roca y las fibras no abiertas. A continuación se cardan, se bobinan y se tejen o trenzan. Generalmente se refuerzan con alguna fibra vegetal o, en algunos casos, con finos hilos de metal.

El tejido de amianto tiene muchas aplicaciones industriales. Se usa en revestimientos aislantes de muchas clases, para juntas y protecciones de calderas. Para estos revestimientos, la cubierta exterior de tejido de amianto se rellena de fibra suelta del mismo material. Los revestimientos están solamente extendidos y tensados, de forma que pueden quitarse fácilmente cuando hay que hacer reparaciones o para su manejo.

Los trenzados de amianto tienen usos muy variados en la industria para empaquetamientos y juntas, especialmente para máquinas de vapor y para bombas. Su resistencia al calor y su larga duración les hace excelentes para tales aplicaciones. Otra aplicación de relieve es en los frenos y embragues, donde las propiedades importantes son las de la resistencia y no alteración por el calor. La lisura del amianto permite que la pieza giratoria encaje sin vibración ni desgaste. La mayoría de las camisas anti-fricción se fabrican con tejido de amianto o se moldean con fibras o resina de este material.

Las fibras cortas de amianto son la mayor parte de las obtenidas en la mina y se usan para hacer tableros y objetos prensados. Hay una demanda creciente de fibrocemento (cemento con fibras de amianto) en la industria, especialmente en la de la construcción. Se usa para cubiertas de tejados y paredes, para edificar depósitos y hangares, así como para compartimientos. Los productos de fibrocemento moldeado se usan en la construcción de canales, desagües, tuberías, depósitos, tubos para cables y acequias.

Los tubos subterráneos de fibrocemento de gran diámetro se fabrican con destino a aprovisionamientos de aguas, cloacas y drenaje. La fibra de amianto puede también esparcirse sobre objetos, especialmente si se desea protección contra el fuego. Cuando la fibra se mezcla con un líquido, cada haz de fibras absorbe cierta cantidad de éste. Esta propiedad hace posible el pegarla sobre estructuras de acero, por ejemplo, o sobre la parte inferior de los pisos, para evitar que las llamas puedan extenderse a otras habitaciones.

El amianto de usa también mucho en el aislamiento del sonido. El amianto esparcido o pegado en las superficies es especialmente útil. Como material absorbente del sonido, se usa en las salas de cine o de conciertos, para eliminar las superficies que reflejan el sonido produciendo eco.

El amianto esparcido se aplica también a superficies frías donde, de otra forma, se acumularía la humedad. El amianto esparcido disminuye el enfriamiento de la capa de aire próxima a la superficie (por ejemplo, en un techo) y, de esta manera, evita la condensación.

El uso de amianto fue absolutamente prohibido en España en diciembre de 2001, si bien algunas de sus variedades se prohibieron antes como el amianto azul en 1984 y el amianto marrón en 1993.

Fuente Consultada:
TECNIRAMA La Enciclopedia de la Ciencia y la Tecnología Fasc. N°56
Sitio web español: http://www.amianto.com.es/

Energía Mareomotriz Producir Electricidad Con Las Mareas

USINAS EECTRICAS QUE USAN LA FUERZAS DE LAS MAREAS

Hasta ahora, el hombre ha hecho muy poco para aprovechar la energía de los mares y utilizarla convenientemente. La central mareomotriz francesa de la Ranee, fue la primera en su estilo en el mundo, que produzcía electricidad a partir del regular flujo y reflujo de las mareas.

Ocurre que, en este lugar particular de la costa francesa, la diferencia entre pleamar y bajamar es lo suficientemente grande para poder hacer funcionar una planta eficaz. En realidad, hay pocos sitios en el globo terrestre donde el nivel del agua sube y baja lo suficiente como para que valga la pena llevar a cabo la operación.

El desnivel entre la pleamar y la bajamar en el estuario de la Rance tiene un valor medio de 11,4 metros y, por otra parte, la electricidad producida puede consumirse inmediatamente en la región. Por estas circunstancias, el proyecto resulta práctico. Dos veces en cada día lunar (24 horas y 50 minutos), una “ola astronómica” llega del Atlántico y penetra en el Canal de la Mancha.  Su potencia bruta se ha estimado en  56 millones de cabullos vapor.

Aproximadamente, una mitad de esta potencia se pierde en el Canal, al romper las olas y al rozar con el fondo del mar y a lo largo de la costa. Lo que los ingenieros intentan aprovechar con sus centrales mareomotrices es una parte de esta energía perdida.

El principio de la operación, en su conjunto, es sencillo. El hombre lo ha utilizado desde la antigüedad, con ruedas de molino impulsadas por la marea. Un canal, con una compuerta abierta cuando sube la marea, se llenará de agua.

Ésta podrá ser retenida cerrando la compuerta y, posteriormente, se utilizará para producir trabajo o para hacer funcionar algún tipo de planta generadora, cuando la marea baje.

Desgraciadamente, esta teoría tan sencilla fallará en la práctica, porque esto significa que sólo se puede producir electricidad cuando la marea está bajando, y una generación momentánea de electricidad en la madrugada no es útil a nadie. Se necesita una producción regular, para suministrar energía en el tiempo preciso, y esto exige una organización mucho más compleja.

En realidad, pura poder armonizar la producción de electricidad con la demanda se necesita una calculadora que dirija las operaciones de abrir y cerrar las compuertas.

VEINTICUATRO CENTRALES ELÉCTRICAS EN  UNA
La central de la Rance organiza su producción de electricidad por medio de veinticuatro elementos, que, para el espectador, aparecen como veinticuatro canales que corren a lo largo de una gran presa, construida a través del extremo del estuario de la Rance.

El conjunto tiene una longitud total de 750 m, y consta de Oeste a Este de:
  • Una esclusa que permite la navegación entre la parte embalsada y la parte de mar de la bahía, de 65 metros de largo por 13 metros de ancho.
  • Una planta mareomotriz de 390 metros de largo por 33 de ancho, formada por 24 turbinas “tipo bulbo”, de 10 MW cada una.
  • Un dique de entronque de 163 metros de largo que completa el cierre del estuario entre la planta y el islote de Chalibert.
  • Una pesa movil de 115 metros de largo, provista de 6 válvulas de tipo “wagon”, capaces de funcionar a una diferencia de altura de la columna de agua de 10 metros; siendo su ancho de 15 metros cada una.
  • Una carretera de doble sentido que une Dinard con St-Malo, la cual se ve sometida al paso de 26.000 coches diarios, siendo 60.000 en verano.

Represa Mareomotriz en Francia Dos veces al día pasan 184 millones de metros cúbicos a través de la presa, cayendo de una altura de 11,4 metros y proporcionando energía. Se eligen los momentos del día en que se necesita más electricidad, las horas de máximo consumo.

Lo energía básica de una central eléctrica mareomotriz depende de dos factores: la superficie del canal en el que se retiene el agua y la diferencia entre la pleamar y la bajamar. Por tanto, conviene elegir un lugar en el que este valor sea el más grande posible. El estuario de la Ronce tiene una superficie de 22 kilómetros cuadrados y el nivel del agua varía 11,4 metros, como valor medio, en cada marea, lo que significa una cantidad de agua de 184 millones de metros cúbicos que entra y sale dos veces al día. El Mediterráneo no podría utilizarse nunca para producir energía eléctrica, ya que la marea sólo hace variar el nivel del mar en pocos decímetros.

Cuando la marea sube, el agua se precipita dentro de los canales, impulsando las turbinas a su paso. Así se produce mucha menos energía que cuando las presas están vaciándose; pero, a pesar de todo, todavía resulta conveniente.

Al final de la marea se utiliza energía de la red ordinaria, para que la turbina siga girando y llene la presa por encima del nivel exterior durante esta operación. Este aumento extra de nivel es un métodopara obtener algo a partir de nada.

Cuesta muy poco tomar electricidad del sistema para hacer subir, artificialmente, el nivel del agua, digamos 50 centímetros más. Pero tres horas después, cuando el nivel del agua en el exterior haya bajado unos 6 metros, esta misma agua tendrá una caída de 6 metros y, en la práctica, podrá proporcionar una energía 12 veces mayor que la empleada para subirla a su posición inicial.

El tiempo en que se almacena el agua a este nivel artificial depende de la demanda de electricidad. En el momento oportuno, el agua puede salir hacia el mar y proporcionar así la electricidad a la red. La turbina que convierte el flujo de agua en   una   corriente   eléctrica   utilizable   está sumergida y se encuentra en el paso de la corriente de agua. Está rodeada de agua por todas partes y posee una gran hélice, que es impulsada por la corriente.

La hélice es de láminas ajustables, que pueden orientarse de modo que se adapte a las condiciones imperantes. Se puede llegar a la turbina sumergida por medio de un túnel con una escalera.

Cuando una presa se ha vaciado y alcanzó el nivel de la marea que la rodea, se toma otra vez un poco de energía de la red para producir un sobrevaciado. Entonces, el ciclo completo puede empezar nuevamente.

Cada pequeña central funciona independientemente de las demás, para responder a las distintas necesidades de corriente, según las diferentes mareas. El número de ciclos diversos que se pueden utilizar en el curso de un mes es variable, permitiendo, así, una adaptación a las más diversas demandas de electricidad y el mejor aprovechamiento de toda clase de mareas.

Es necesario tener en cuenta el hecho de que las mareas se retrasan 50 minutos cada día y no tienen siempre la misma amplitud. Se calcula que la producción anual de la central será de unos 540 millones de kilovatios-hora por año, producción muy pequeña para una central eléctrica. Pero el combustible no faltará nunca y la planta será una experiencia útil para decidir si se puede emplear el mismo principio en otro lugar del globo terráqueo.

esquema represa mareomotriz

La turbina, que está sumergida y se encuentra en el paso de la corriente de agua, gira,
proporcionando   una   pequeña   cantidad   de   electricidad.

Se toma de la red una pequeña cantidad de electricidad,
para elevar artificialmente el nivel del agua  en el estuario.

Represa mareomotriz

A medida que se vacía el embalse, la turbina produce una
gran cantidad de electricidad en el sistema.

Cuando el embalse está vacio, se toma un poco do electricidad para hacer
girar la turbina y vaciar todavía más la presa.

FUENTES DE ENERGÍA ELÉCTRICA
Casi toda la energía eléctrica producida actualmente prosede de combustible! extraídos de la Tierra, que pueden encontrarse en una u otra forma. Estos combustibles —carbón, petróleo y uranio— se extraen, retiran y trasporté?; antes de utilizarlos para trasformar el agua en el vapor que hará funcionar los generadores eléctricos. Además de estas fuentes de energía, existen otras —ríos de corriente rápida y el calor procedente del Sol.

En todos los métodos convencionales, la energía encerrada en el combustible se convierte, primero, en energía calorífica. En el carbón y en el petróleo, lo que se convierte es energía química; en el caso del uranio se utiliza la energía desprendida en la fisión controlada de los núcleos de uranio.

En la instalación de la Ranee, la energía mecánica de la marea se convertirá directamente en energía eléctrica.

El procedimiento es similar, en principio, a las centrales hidroeléctricas que funcionan en todo el mundo, mediante la energía mecánica que libera el agua al caer de un nivel a otro. Esta energía se convierte directamente en electricidad Este proyecto de la Ranee también se parece mucho a otros de almacenamiento por bombeo, ya en servicio en Luxemburgo (en Vianden) y en el país de Gales (en Ffestinlog).

En ambos proyectos, como en el de la Ranee, sólo se pers fluir el agua a través de los equipos generadores cuando se requiere, es decir, cuando hay una demanda en el circuito eléctrico. En los proyectos de almacenamiento por bombeo, el agua se hace subir a una colina desde una reserva hasta otra más elevada, en los momentos del día en que no hay una gran demanda de electricidad. Se guarda hasta que la demanda alcanza un máximo y entonces se libera, dejándosela fluir a través de los equipos generadores, para producir un suplemento de energía eléctrica, muy necesario.

Otro ejemplo de conversión de una energía natural es la utilización de la energía solar. Una gran cantidad de energía radiante procedente del Sol alcanza la superficie de la Tierra durante el día y puede utilizarse para trasformar agua en vapor. Este vapor puede hacer funcionar turbinas generadoras. Tales proyectos se han puesto en marcha en Rusia a partir de la década del 60´.

Fuente Consultada
Enciclopedia TECNIRAMA Fasc. N° 118 Electricidad Producida Por Las Mareas

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Funcionamiento de Olla a Presión Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, “inventor del reloj de péndulo”, como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la “bomba al vacío”, al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el “digestor”, o “baño maría de rosca”, que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: “Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida”, y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Concepto de Calor Latente Investigación de Black Joseph

PRIMERAS INVESTIGACIONES EN CALORIMETRÍA

Una de las formas de energía más familiar para nosotros es el calor. Diariamente hacemos uso de él para calentar nuestra casa, para preparar la comida, etc. La energía calorífica es debida al movimiento de las moléculas y de los átomos. La experiencia nos enseña que la energía de un cuerpo puede transformarse en calor, siendo también posible que la energía térmica se convierta en trabajo, como sucede en los motores de explosión o en las máquinas térmicas. Por todo ello decimos que el calor es una forma de energía.

DIFERENCIA ENTRE CALOR Y TEMPERATURA: Actualmente, está muy bien determinada la diferencia entre calor y temperatura, a pesar de que algunos estudiantes puedan confundir estos dos conceptos. Calor es la energia necesaria para calentar un cuerpo y temperatura es una medida de su grado de calor. Cuanto mas energía entreguemos mas temperatura tendrá el cuerpo.

Para pensar este tema, imaginemos que debemos calentar 1 litro de agua de 10°C a 20°C, es decir , elevarla 10°C mas. Para lograrlo debemos entregar energía a esa masa de agua, por ejemplo colocarla sobre la hornalla de una cocina. Observaremos que a medida que pasa el tiempo el agua se pone mas caliente, por lo que podemos concluir que a medida que entregamos energía el agua aumenta su temperatura. Vemos que hay dos conceptos definidos por un lado la cantidad de energía o calor entregado y por otro la medida de su temperatura.

Si por ejemplo ahora tenemos que calentar 2 litros de agua de 10°C a 20°C, entonces necesitaremos el doble de energia entregada, para lograr la misma temperatura.

Para medir la energia entregada en forma de calor, se define la caloría que es la cantidad de calor necesaria para calentar de 14°C a 15 °C un gramo de agua. La unidad así definida corresponde a una cantidad de calor muy pequeña, por lo que, generalmente, en la práctica se utiliza la kilocaloría, que corresponde a 1.000 calorías.

Se usa por definción de  14 a 15°C solo como una medida de referencia, en realidad lo que
objetivamente se quiere indicar, es que el aumento sea de 1°C.

Para medir temperaturas utilizamos un termómetro con diversas escalas, pero la mas popular es grados centígrados o Celsius, creador de esta escala, que comienza a O° cuando el hielo se congela y finaliza en 100°C cuando el agua entra en ebullición.

La temperatura (la intensidad de calor) puede medirse fácilmente usando un termómetro.  Por el contrario, para la medida del calor (cantidad de energía entregada para calentar la materia) se usa la caloría.

HISTORIA: Hace unos 200 años, Joseph Black llevó a cabo una serie de experimentos muy importantes sobre la medida del calor y las relaciones entre el calor y la temperatura.

Joseph Black fisico

Demostró que el hielo en fusión y el agua hirviendo, que produce vapor, absorben grandes cantidades de calor, a pesar de que no hay cambios de temperatura. Introdujo el concepto de calor latente, con el que designó el calor necesario para producir esos cambios de estado.

grafica calor latente

Observe por ejemplo que cuando la temperatura llega a B, por mas que se sigua agregando calor, la temperatura
permanece constante hasta que no haya mas sustancia sólida. Lo mismo ocurre para que la sustancia
cambie de líquida a gaseosa.

La energía necesaria para que una sustancia cambie de estado es: Q = m. L
Donde m es la masa de la sustancia considerada y L es una propiedad característica de cada sustancia, llamada calor latente. El calor latente se mide en Joule/kg en unidades del SI.

Black también descubrió que se necesitan distintas cantidades de calor para producir las mismas elevaciones de temperatura en masas iguales de sustancias diferentes. Por ejemplo, para aumentar la temperatura del agua de 15° a 25° hace falta aplicar 1,7 veces más calor que para producir el mismo cambio de temperatura en una masa igual de alcohol.

Para explicar esta variación entre las diferentes sustancias, Black introdujo la idea de calor específico. Al realizar este trabajo, sentó las bases de la medida del calor —la calorimetría—, que sigue teniendo vigencia aún. Durante los 100 años anteriores, o más, los avances de la química habían estado obstaculizados por la teoría del flogisto. Sin embargo, como Black no aceptaba las teorías que no estuviesen apoyadas por pruebas experimentales, hizo varias aportaciones valiosas a la ciencia química.

calor latente

Black definió el “calor latente” como la cantidad de calor para cambiar de estado una sustancia

Hasta mediados del siglo XVIII, se sabía muy poco acerca de los gases y, de hecho, muchas personas aseguraban que sólo existía un gas (el aire). Un siglo antes (en 1640, para precisar más), van Helmont había descubierto el gas que hoy llamamos anhídrido carbónico; pero, a causa del incremento de la teoría del flogisto, no se llegó a comprender la importancia de este hallazgo.

Black redescubrió el anhídrido carbónico en 1754, haciendo experimentos con dos álcalis débiles: los carbonatas de magnesio y de calcio. Comprobó que cuando estas sustancias se calientan, cada una de ellas produce un álcali más fuerte, liberando, al mismo tiempo, aire fijo (o sea, el anhídrido carbónico). El peso del álcali fuerte es menor que el del álcali débil del que procede.

Joseph Black nació en 1728, en Burdeos (Francia), de padres que descendían de escoceses. Después de pasar seis años en la escuela en Belfast, en 1746, ingresó a la Universidad de Glasgow, para estudiar química y medicina. En 1756, llegó a ser profesor de anatomía y de química en Glasgow.

Al cabo de 10 años pasó a la cátedra de medicina y química de la Universidad de Edimburgo. Black era muy popular entre los estudiantes porque preparaba concienzudamente los cursos y sus clases estaban ilustradas con muchos experimentos.

Al mismo tiempo que hacía notables aportaciones a la química y a la física, encontró tiempo suficiente para ejercer la medicina. Murió apaciblemente, todavía ocupando su cátedra, a la edad de 71 años.

Calor especifico

También definió el calor especifico, para tener en cuenta las diferentes cantidades de calor necesarias para producir un mismo aumento de temperatura en masas iguales de distintas sustancias.

No todos los materiales cambian su temperatura con la misma facilidad, ya que las partículas que los forman y las uniones entre ellas son diferentes. El calor específico Informa sobre la mayor o menor facilidad de las sustancias para aumentar su temperatura. El calor específico de una sustancia, ce, es la cantidad de calor necesaria para elevar un grado la temperatura de un kilogramo de dicha sustancia.

Algunos valores de calor específico expresado en: (Joule/Kg. °K)

Agua    4.180
Alcohol etílico    2.400
Hielo    2.090
Vapor de agua    1.920
Aire    1.000
Aceite    1.670
Aluminio    878
Vidrio    812
Arena    800
Hierro    460
Cobre    375
Mercurio    140
Plomo    125

Fuente Consultada:
Enciclopedia TECNIRAMA de la Ciencia y la Tecnología Fasc. N°112 Sabio Ilustre Joseph Black
Enciclopedia del Estudiante Tomo N°7 Física y Química

Conceptos Básicos de Electromagnetismo Historia y Aplicaciones

Antetodo se aclara que la explicación sobre este fenómeno físico es sólo descriptivo y tiene como objetivo describir las características mas imporatantes del mismo. Es una especie de descripción tecnico-histórica para darle al interesado una somera idea de como funciona la naturaleza en lo que respecta a la interacción de campos magnéticos y eléctricos.

De todas maneras es una interesante descripción  orientada a todos los curiosos de la física o para quellos estudiantes principiantes que desean adentrarse en el mundo del electromagnetismo. Leer con detenimiento estos conceptos básicos, ayudarán de sobremanera a enteder luego las explicaciones matemáticas o conclusiones finales de las experiencias de laboratorio.

Si el lector desea un estudio mas técnico, con las correspondientes deducciones matemáticas que implican un analisis profundo del fenómeno, debería hacer nuevas búsquedas, ya que existen muchos y excelentes sitios que explican muy didacticamente al electromagnetismo.

INTRODUCCIÓN HISTÓRICA: Los fenómenos conocidos de la electricidad estática y del magnetismo permanente han sido observados durante unos 2500 años. William Gilbert, en Inglaterra, realizó muchas investigaciones ingeniosas en electricidad y magnetismo. En 1600, publicó De Magnefe, el primer libro concluyente sobre este tema, donde explica muchas de las  semejanzas entre la electricidad y el magnetismo.

Una y otro poseen opuestos (positivo y negativo en electricidad, polo norte y polo sur en electromagnetismo). En ambos casos, los opuestos se atraen y los semejantes se repelen, y también en ambos casos la fuerza de la atracción o repulsión declina con el cuadrado de la distancia.

Nosotros, igual que los primeros observadores, hemos notado semejanzas entre los fenómenos relativos a la electricidad y los relacionados con el magnetismo.

Por ejemplo:
1.   Existen dos clases de concentración eléctrica —más y menos— y dos clases de concentración magnética  —norte y sur.
2.   Tanto en electricidad como en magnetismo, concentraciones del mismo nombre se repelen entre sí; mientras que concentraciones de nombre diferente se atraen mutuamente.
3.   Los efectos eléctricos y los magnéticos se describen  en función  de campos.
4.   En electricidad y en magnetismo, las fuerzas de atracción y repulsión están de acuerdo con la ley inversa  de  los cuadrados.
5.   Cuerpos apropiados pueden electrizarse frotándolos (como cuando se frota un objeto de plástico con una piel); análogamente, cuerpos apropiados pueden ser imantados por frotamiento (como cuando se frota una aguja de acero con un imán).
6.   Ni las cargas eléctricas, ni los polos magnéticos son visibles, ni tampoco los campos asociados, eléctrico o magnético. Tanto en electricidad como en magnetismo, las concentraciones y sus campos se conocen sólo por sus efectos.

Quizás podamos encontrar otras semejanzas. Se puede ver de qué modo ellas llevaron a los primeros científicos a sospechar que la electricidad y el magnetismo estaban íntimamente relacionados, siendo, posiblemente, manifestaciones distintas del mismo fenómeno fundamental.

Cuando en 1800, el físico italiano Alessandro Volta descubrió la primera pila electroquímica útil, los hombres de ciencia tuvieron la primera fuente segura de energía para hacer funcionar circuitos eléctricos. Todavía no se encontraban pruebas de alguna conexión entre los fenómenos eléctricos y magnéticos. Por consiguiente, en la primera mitad del siglo XIX los sabios opinaban que “a pesar de las semejanzas aparentes entre la electricidad y el magnetismo, estos dos fenómenos no están relacionados entre sí”.

Esta era la situación de 1819 cuando un profesor de ciencias danés, llamado Hans Christian Oersted, hizo una observación de gran importancia en este campo de la Física. Oersted, al parecer, había considerado y buscado un enlace entre la electricidad y el magnetismo.

Fisico Oerster

Hans Christian Oersted

De acuerdo con uno de sus alumnos, Oersted estaba utilizando una batería de las pilas voltaicas primitivas durante una de sus clases. En aquellos días, las baterías eran caras, difíciles de manejar y no duraban mucho tiempo.

Oersted deseaba usarla mientras fuera posible, así que colocó un alambre paralelo arriba de una brújula y cerró el circuito.

Posiblemente, Oersted trataba de demostrar a sus alumnos que la corriente eléctrica y el comportamiento de la brújula no estaban relacionados. Para su sorpresa, cuando cerró el circuito, la aguja de la brújula se movió y osciló a una posición que ya no era paralela al alambre. Oersted había tropezado con el fenómeno de que una corriente eléctrica está rodeada de un campo magnético.

Además, tenía su mente alerta y con el pensamiento abierto para reconocer un fenómeno inesperado   y   atribuirle   la   importancia   que   merecía.

Oersted efectuó muchos experimentos con estos nuevos fenómenos y, al principio del año siguiente, publicó una pequeña comunicación describiendo sus observaciones. Las noticias científicas viajan, en general, con rapidez y no pasó mucho tiempo cuando un gran número de investigadores capaces realizaban experiencias sobre electromagnetismo.

Entre ellos estaban Michael Faraday en Inglaterra, André Ampére en Francia y William Sturgeon, quien fabricó el primer electroimán con núcleo de hierro en 1823. Con toda seguridad el descubrimiento de Oersted, en su aula, fue un paso importante en el desarrollo de  los conceptos del electromagnetismo.

Una de las razones de que los efectos magnéticos de una corriente eléctrica fueran tan importantes es que introdujeron una nueva clase de fuerza. Todas las observaciones previas con cualquier tipo de fuerzas estaban relacionadas con acciones sobre la recta entre los cuerpos que producían la fuerza. Así, las fuerzas gravitacionales están siempre en la línea recta que une las dos masas; de este modo se comportan también las fuerzas atractivas y repulsivas entre cargas eléctricas y entre imanes.

Pero aquí, existía una fuerza donde la acción era perpendicular a la recta que une el alambre y la aguja de la brújula. Cuando Oersted colocó una corriente arriba y paralela a la brújula, la aguja giró alejándose de su posición paralela al alambre.

PARTE I: IMANES , MAGNETISMO Y CORRIENTES INDUCIDAS
En la Naturaleza existe un mineral, llamado magnetita por haber sido descubierto en la ciudad griega de Magnesia, que tiene la propiedad de atraer las limaduras de hierro. Este fenómeno se denomina magnetismo y los cuerpos que lo manifiestan se llaman imanes. Un imán tiene dos polos, uno en cada extremo, que llamanos Norte y Sur

Si tomamos un imán, que puede girar horizontalmente alrededor de su punto medio, y le acercamos un polo de otro imán se observa que los polos del mismo nombre se repelen y los de nombre distinto se atraen.

Al dividir un imán en varios trozos, cada uno de ellos, por pequeño que sea, posee los dos polos. Este comportamiento se explica suponiendo que los imanes están formados por una gran cantidad de minúsculos imanes ordenadamente dispuestos. Así, al frotar un trozo de hierro con con imán se ordenan los pequeños imanes que contiene el trozo de hierro, de tal modo que la acción magnética no se neutraliza entre ellos. El trozo de hierro así tratado manifiesta sus propiedades magnéticas y constituye un imán artificial.

Hoy se sabe que los imanes están formados por minúsculos imanes moleculares originados por el giro de electrones que dan lugar a corrientes eléctricas planas, y según el sentido de giro presentan una cara norte o una cara sur.

La región del espacio sensible a las acciones magnéticas se llama campo magnético.

Para visualizar el campo magnético, Michael Faraday (1791-1867), de quien hablaremos mas abajo, esparció limaduras de hierro sobre un papel colocado encima de un imán. Observó que las limaduras se situaban en líneas cerradas; es decir, líneas que parten de un polo del imán y que llegan al otro polo.

limaduras de hierro en un imán

Además, las líneas no se cortan. Estas líneas se llaman líneas de campo o de fuerza  y, por convenio, se dice que salen del polo norte y entran en el polo sur. No existe una expresión matemática sencilla que sirva para determinar el campo magnético en las inmediaciones de un imán, pero podemos decir que:

•  El campo magnético se reduce a medida que nos alejamos del imán.
•  El campo magnético depende del medio en el que situemos al imán.

Observemos el comportamiento de la brújula, frente al campo mágnetico que produce nuestro planeta.

El núcleo de la Tierra está compuesto  por una aleación de hierro y níquel. Este material es muy buen conductor de la electricidad y se mueve con facilidad por encontrarse en estado líquido.

La Tierra actúa como un imán: Campo magnético terrestre. Si tomamos una aguja imantada y la dejamos girar libremente, se orientará siempre en una misma dirección norte-sur. De ahí que al polo de un imán que se orienta hacia el norte geográfico le denominemos polo norte, y al otro polo del imán, polo sur. Esto quiere decir que la Tierra se comporta como un enorme imán. Y es debido a que a medida que la Tierra gira, también lo hace el hierro fundido que forma su núcleo.

El planeta Tierra es como un gran imán con dos polos.

 Los polos geográficos y los polos magnéticos de la Tierra no coinciden, es decir, que el eje  N-S
geográfico no es el mismo que el eje N-S magnético.

EXPLICACIÓN DE LAS EXPERIENCIAS:

Como parte de una demostración en clase, colocó la aguja de una brújula cerca de un alambre a través del cual pasaba corriente.

experimento de Oerster

Experimento de Oerster

La aguja dio una sacudida y no apuntó ni a la corriente ni en sentido contrario a ella, sino en una dirección perpendicular. 0rsted no ahondó en su descubrimiento, pero otros sí se basaron en él, y concluyeron:

1a-Antes de conectar la corriente eléctrica la aguja imantada se orienta al eje N-S geográfico.

1b-Al conectar el circuito eléctrico, la aguja tiende a orientarse perpendicularmente al hilo.

2a– Cambiamos el sentido de la corriente eléctrica invirtiendo las conexiones en los bornes de la pila.

Igual que en el primer experimento, antes de conectar la corriente eléctrica la aguja imantada se orienta al N-S geográfico. Pero al conectar ahora el circuito eléctrico, la aguja se orienta también perpendicularmente al hilo, aunque girando en dirección contraria a la efectuada anteriormente.

Las experiencias de Oersted demuestran que las cargas eléctricas en movimiento (corriente) crean un campo magnético, que es el causante de la desviación de la brújula; es decir, una corriente eléctrica crea a su alrededor un campo magnético.

•  La dirección del campo magnético depende del sentido de la corriente.
•  La intensidad del campo magnético depende de la intensidad de la corriente.
•  La intensidad del campo magnético disminuye con la distancia al conductor.

Llamamos campo magnético a la región del espacio en donde se puede apreciar los efectos del magnetismo, por ejemplo mientras la aguja se la brújula se desplaze hacia un costado, significa que estamos dentro de ese campo magnético. A medida que alejamos la brújula del conductor observaremos que el efecto se pierde pues el campo magnético creado desaparece. Para graficar un campo magnético utilizamos líneas circulares con flechas que muestran el sentido del campo y las denominamos: líneas de fuerza.

El físico francés André-Marie Ampére (1775-1836) quien continuó con el estudio de este fenómeno, dispuso dos alambres paralelos, uno de los cuales podía moverse libremente atrás y adelante. Cuando ambos alambres transportaban corriente en la misma dirección, se atraían de forma clara.

Ampere Fisico

André-Marie Ampére (1775-1836)

Si la corriente fluía en direcciones opuestas, se repelían. Si un alambre quedaba libre para girar, cuando las corrientes discurrían en direcciones opuestas, el alambre móvil describía un semicírculo, y cesaba de moverse cuando las corrientes tenían el mismo sentido en ambos alambres. Resultaba manifiesto que los alambres que transportaban una corriente eléctrica mostraban propiedades magnéticas.

Campo magnético creado por un conductor rectilíneo
Las líneas de fuerza del campo magnético creado por un conductor rectilíreo son circunferencias concéntricas y perpendiculares al conductor eléctrico. Para saber la dirección que llevan dichas líneas de fuerza nos ayudaremos con la regla de la mano derecha.

Regla de la mano derecha

Para aplicar dicha regla, realizaremos el siguiente proceso. Tomamos el hilo conductor con la mano derecha colocando el dedo pulgar extendido a lo largo del hilo en el sentido de la corriente. Los otros dedos de la mano indican el sentido de las líneas de fuerza del campo magnético creado.

Campo magnético creado por una espira
Una espira es un hilo conductor en forma de línea cerrada, pudiendo ser circular, rectangular, cuadrada, etc. Si por la espira hacemos circular una corriente eléctrica, el campo magnético creado se hace más Intenso en el Interior de ella. El sentido de las líneas de fuerza es el del avance de un sacacorchos que girase en el sentido de la corriente.

Campo magnético creado por un solenoide o bobina
Si en lugar de disponer de una sola espira, colocamos el hilo conductor en forma enrollada, obtendremos un solenoide o bobina. En este caso, el campo magnético creado por la corriente al pasar a través de la bobina será mucho mayor, puesto que el campo magnético final será la suma de campos creados por cada una de las espiras.

Así pues, en una bobina, el campo magnético será más intense cuanto mayor sea la intensidad de corriente que circule por el ella y el número de espiras que contenga la bobina. De esta forma, una bobina, por la que circule una corriente eléctrica equivaldría a un imán de barra. El sentido de las líneas de fuerza se determina a partir de cualquiera de sus espiras.

Solenoide

SOLENOIDE. Consiste en un conductor arrollado en hélice de modo que forme un cierto número de espiras circulares regularmente distribuidas unas a continuación de otras. Cuando una corriente eléctrica recorre el conductor, el solenoide adquiere las propiedades de un imán, con sus polos norte y sur correspondientes. Llegamos, pues, a la conclusión de que la corriente eléctrica crea un campo magnético. Las líneas de fuerza que en él se originan, por convenio, van del polo norte al polo sur en el exterior, y en sentido contrario por el interior. Para determinar el nombre de los polos de un solenoide se emplea una aguja imantada, hallándose que el extremo del solenoide por el que la corriente, visto desde fuera, circula por las espiras en el sentido de las agujas del reloj, es el polo sur, y el extremo opuesto es el polo norte.

ELECTROIMANES:

Como vimos anteriormente se puede obtener un campo magnético mayor a partir de corriente eléctrica si se acoplan muchas espiras, unas al lado de otras (por ejemplo, arrollando un hilo conductor), construyendo lo que se conoce como solenoide.

Para crear campos magnéticos aún más intensos, se construyen los electroimanes, que son solenoides en cuyo interior se aloja una barra de hierro dulce, es decir, un hierro libre de impurezas que tiene facilidad para imantarse temporalmente.

Cuando se hace circular corriente eléctrica por el solenoide, con centenares o miles de vueltas (es decir, centenares o miles de espiras), el campo magnético se refuerza extraordinariamente en su interior, y el solenoide se convierte en un poderoso imán con múltiples aplicaciones.

electroimán casero

Si arrollamos un conductor alrededor de una barra de hierro dulce (clavo) y hacemos pasar por
él la corriente eléctrica, tendremos un electroimán.

Al objeto de aumentar la intensidad del campo magnético creado por el electroimán, éstos se construyen en forma de herradura, pues así el espacio de aire que tienen que atravesar las líneas de fuerza para pasar de un polo a otro es menor.

Los electroimanes se emplean para obtener intensos campos magnéticos en motores y generadores. También se utilizan en timbres eléctricos, telégrafos y teléfonos, y actualmente se construyen gigantescos electroimanes para utilizarlos como grúas y para producir campos magnéticos intensos y uniformes, necesarios en trabajos de física nuclear.

Demos ahora un paso mas…

A partir de los descubrimientos de Oersted, algunos científicos de su época se plantearon si el efecto contrario podría ocurrir es decir, si un campo magnético sería o no capaz de generar una corriente eléctrica, algo que tendría unas interesantes consecuencias prácticas.

En 1831 Faraday observó que cuando se mueve un circuito cerrado a través de un campo magnético se origina una corriente eléctrica que recorre aquel circuito, y que se conoce con el nombre de corriente inducida. Dicha corriente cesa en el momento en que se interrumpe el movimiento.

induccion electromagnetica

Las experiencias de Faraday fueron las siguientes: tomó un  imán y lo colocó cerca de una bobina, la que tenía un conectado un medidor de corriente, llamado amperímetro o galvanómetro.

Pudo observar que cuando ambos elementos (imán-bobina) están en reposo, la corriente es nula, es decir, la aguja el amperimetro no se mueve.

Luego movió el iman hacia dentro de la bobina y notó que la aguja se movía, lo que determinó un pasaje de corriente por la misma. También notó que cuanto más rápido se desplazaba el imán mayor era la corriente medida.

Cuando el imán está en reposo, dentro o fuera de la bobina, no hay corriente y a aguja del galvanómetro permanece con medición nula.

También probó en sentido inverso, es decir, dejó inmovil el imán y desplazó la bobina y el efecto fue el mismo al antes explicado.

Conclusiones de Faraday: Inducción electromagnética
En todos los experimentos de Faraday, en los que se acerca un imán a un circuito cerrado o bobina, los efectos son los mismos si el imán permanece en reposo y es la bobina del circuito la que se mueve.

Faraday concluyó que para que se genere una corriente eléctrica en la bobina, es necesario que exista un movimiento relativo entre la bobina y el imán.

Si se mueve la bobina hacia el imán, hay una variación en el campo magnético en el circuito, pues el campo magnético es más intenso cerca del imán; si se mueve el imán hacia la bobina, el campo magnético también varía.

A la corriente generada se le llama corriente inducida y, al fenómeno, se le denomina inducción electromagnética.

Por lo tanto se obtiene energía eléctrica como consecuencia del movimiento del imán con respecto a la bobina o de la bobina con respecto al imán.

La inducción electromagnética es el fundamento de los generadores de corriente eléctrica, como son la dinamo y el alternador.

PARTE II: EFECTO MOTOR Y EFECTO GENERADOR

EFECTO MOTOR: Hasta ahora vimos ejemplos con circuitos cerrados pero sin que circule una corriente por ellos, simplemente el fenómeno aparece cuando movíamos el iman o la bobina respecto uno del otro.

Ahora estudiaremos cuando ademas del movimiento relativo, también circula una corriente por esa bobina. Para ello observemos la imagen de abajo, donde se coloca una alambre conectado a una batería dentro de un campo magnético de un imán.

Efecto Motor

Un alambre se coloca horizontalmente a través de un campo magnético. Al fluir los electrones hacia la derecha de la mano, el alambre recibe la acción de una fuerza hacia arriba.

La fem (voltaje) de la batería y la resistencia del circuito son adecuados para que la corriente valga unos pocos amperios. Al llevar cabo este experimento, se encuentra:

Se observa que:

a.   Cuando el alambre tiene corriente y se coloca a través del campo magnético, el alambre recibe la acción de una fuerza. (si hay fuerza hay un movimiento)

b.   Cuando el alambre con corriente se coloca bastante lejos del imán no experimenta ninguna fuerza.

c.   Cuando el alambre no lleva corriente y se coloca a través del campo magnético, no experimenta ninguna fuerza.

d.   Cuando el alambre no lleva corriente y se coloca bastante lejos del imán, no experimenta  ninguna  fuerza.

e.   Cuando el alambre con corriente se coloca paralelo al campo magnético, no experimenta ninguna fuerza.

De estas observaciones se puede deducir:
(1) que debe tener corriente y
(2) que su dirección debe cruzar el campo magnético, para que el alambre reciba la acción de una fuerza.

f.   Cuando el alambre conduce electrones que se alejan  del observador,  recibe la  acción de una fuerza vertical.

g.   Cuando el alambre conduce electrones hacia el observador, recibe la acción de una fuerza vertical opuesta a la del caso (f ).

De esto se puede concluir que el sentido de la fuerza sobre el alambre forma ángulos rectos con el sentido de la corriente y con el del campo magnético. Se deduce, que el sentido de la corriente influye sobre el sentido de la fuerza, h.   Si  se invierten los polos magnéticos, también se invierta el sentido de la fuerza que actúa sobre el alambre.

De esta observación puede verse que el sentido del campo magnético, influye sobre el sentido de la fuerza. i.   Si se varía la intensidad de la corriente en el alambre, la magnitud de la fuerza resultante varía en la misma proporción.
Esto indica que la fuerza que recibe el alambre depende directamente de la intensidad de la corriente. j.

Si se substituye el imán por uno más débil o más  potente,   la  magnitud  de  la  fuerza resultante varía en la misma proporción. Por tanto, la fuerza sobre el alambre es directamente proporcional a la densidad de flujo del campo magnético. Debido a que los principios fundamentales de este experimento son básicos para el trabajo de motores eléctricos, la existencia de una fuerza que  actúa  sobre  una  corriente  que  cruza  un campo magnético, se llama efecto motor

El efecto motor no debe ser ni sorprendente ni misterioso. Después de todo, una corriente eléctrica es un flujo de electrones que experimentan una fuerza deflectora cuando atraviesan un campo magnético. Puesto que no pueden escapar del alambre, lo arrastran con ellos.

regla de los 3 dedos de la mano izquierda

La regla de los tres dedos también se aplica a la desviación de un alambre con corriente a través de un campo magnético. Use la mano izquierda, con el mayor apunte en el sentido del flujo electrónico, de negativo a positivo.

EFECTO GENERADOR:

Efecto Generador

El alambre se empuja alejándolo del lector. Cuando esto se hace en condiciones apropiadas, los electrones libres del alambre son imrjulsados hacia arriba.

De nuevo se tiene un campo magnético debido a un potente imán permanente . Sin embargo, esta vez se mantiene el alambre vertical y lo mueve acercándolo y alejándolo, hacia adelante y atrás, atravesando el campo. El alambre en movimiento se conecta con un medidor eléctrico sensible —un galvanómetro— que indica la existencia de una corriente eléctrica débil y, por tanto, de una fuerza electromotriz o voltaje (fem) que produce dicha corriente. En este experimento el estudiante observará y deducirá lo siguiente:

a.   Cuando el alambre se mueve a través del campo magnético se produce una fem.
b.   Cuando el alambre se mueve en una región lejos del imán, no hay fem.
c.   Cuando el alambre se mueve paralelo al campo magnético, no hay fem.
d.   Cuando el alambre se mantiene fijo, en una posición lejos del imán, no hay fem.
e.   Cuando el alambre se mantiene fijo en una posición, dentro del campo magnético, no hay fem.
De estas observaciones se puede concluir que el alambre debe moverse a través del campo magnético para que se genere una fem. Es evidente, que la parte superior del alambre, es positiva o negativa con respecto a la parte inferior. De esto se puede deducir que la fem generada forma ángulos rectos con el movimiento y también con el campo magnético.
f.    Cuando el alambre se mueve a través del campo, alejándose del observador, se produce una fem.
g.  Cuando el alambre se mueve a través del campo acercándose al observador, se produce una fem cuya polaridad es opuesta a la del inciso anterior (f).
De estos hechos se puede ver que el sentido del movimiento  determina el  sentido  de la fem generada.
h. Si se invierten los polos magnéticos el sentido
de la fem generada se invierte. Esto indica que el sentido de la fem generada está determinado por el sentido del campo magnético.
i.   Si se varía la velocidad de movimiento del alambre, la magnitud de la fem generada varía también de acuerdo con ella. Este dato indica que la fem generada es directamente dependiente de la velocidad del alambre en movimiento.
j. Si se colocan imanes más débiles o más potentes, la magnitud de la fem generada disminuye o aumenta proporcionalmente. Por tanto, la fem generada es directamente dependiente de la densidad de flujo del campo magnético.

Si se realizan estos experimentos, puede ser difícil ver el movimiento de la aguja del galvanómetro, porque la fem es muy pequeña. Sin embargo, se puede fácilmente repetir un experimento de la imagen. Se enrolla una bobina de alambre con varias vueltas, se conectan sus extremos al galvanómetro y se mueve dicha bobina rápidamente hacia el polo N de una barra imantada.

El gavanómetro se desviará, demostrando que se ha producido una fem en la bobina. La fem cambia de sentido cuando se aleja la bobina del imán o cuando se usa el polo S en lugar del polo N.

En este caso el alambre en la bobina que se mueve en un campo magnético se desplaza, principalmente, de modo perpendicular al campo. De acuerdo con esto, debe generarse una fem. Se puede preferir pensar en la bobina de este modo: a través del área de la bobina pasa una cierta cantidad de flujo magnético, al mover la bobina hacia el imán, la cantidad de flujo a través de ella aumenta. Siempre que cambia el flujo por una bobina, se genera una fem.

Debido a que los principios en que se basan estos experimentos también son básicos para el funcionamiento de los generadores eléctricos, constituyen el llamado efecto generador: una fem se genera en un conductor, cuando éste se mueve a través de un campo magnético o cuando el campo magnético varía dentro de una bobina.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología
Enciclopedia Temática CONSULTORA Tomo 10 Física
FISICA Fundamentos y Fronetras Stollberg – Hill

Biografia de Ohm Simón Obra Científica y Experimentos

Una vez Fourier hubo elaborado un sistema matemático que daba cuenta adecuadamente del flujo de calor, parecía que el mismo sistema podía emplearse para describir la corriente eléctrica. Mientras que el flujo de calor de un punto a otro dependía de las temperaturas de ambos puntos y de si el material que los unía era buen conductor del calor, la corriente eléctrica de un punto a otro podía depender del potencial eléctrico de los dos puntos y de la conductividad eléctrica del material intermedio. hm haciendo diversas experiencia de laboratorio, logró al fin determinar la famosa ley que lleva su nombre: “Ley de Ohm”

ley de ohm

Dice así: La magnitud de una corriente I eléctrica que pasa entre dos puntos es igual al cociente entre la tensión (o voltaje V) y la resistencia R del conductor por el que atraviesa dicha corriente. Esta es una ley de fundamental importancia, y una de las primeras que se aprenden al estudiar electricidad.

Hoy es conocida como la ley de Ohm, aunque en 1827, al ser enunciada por Jorge Simón Ohm, pasó inadvertida. De hecho, hubieron de transcurrir 16 años para que dicha ley recibiera 4a consideración que merece. En aquella época se prestaba mayor atención a los científicos jactanciosos y con amigos influyentes que a los de carácter reservado y tranquilo como lo era Ohm. Ohm nació en Erlangen (Alemania), en 1789.

ohm simon

Trabajando con alambres de diversos grosores y longitudes, el físico alemán Georg Simón Ohm (1789-1854) halló que la cantidad de corriente transmitida era inversamente proporcional a la longitud del alambre y directamente proporcional a su sección. De este modo pudo definir la resistencia del alambre y, en 1827, demostró que «la intensidad de la corriente a través de un conductor es directamente proporcional a la diferencia de potencial e inversamente proporcional a la resistencia». Ésta es la llamada ley de Ohm.

Era hijo de un maestro de taller, el cual decidió dedicarlo al estudio de las matemáticas y de la física. Y. el propio padre se puso entonces a estudiar estas disciplinas, para poder enseñar a su hijo lo aprendido, dándole clases cuando el muchacho salía de la escuela.

A la edad de 16 años, Ohm comenzó sus estudios en la Universidad de Erlangen, pero, desgraciadamente, la situación económica de la familia hizo que, al cabo de dos años, tuviera que dejar la universidad para colocarse como profesor en Suiza. Más adelante, pudo completar sus estudios y licenciarse; pero, por segunda vez, la falta de dinero le obligó a abandonar sus investigaciones en la universidad, volviendo, de nuevo, a su puesto de profesor.

Después de pasar 4 años enseñando física en Bamberg, se trasladó al Gimnasio de Colonia, donde llevó a cabo sus más importantes investigaciones.

Cuando Ohm comenzó sus experiencias, la electricidad se describía en términos muy imprecisos. No existía un modo exacto de expresar el comportamiento de una corriente eléctrica, y Ohm resolvió hacer algo en este sentido. Fourier había trabajado ya en la conducción del calor, llegando a la conclusión de que en un material conductor existía un gradiente de temperatura y que la cantidad de calor que conducía dependía de la caída de temperatura a lo largo del conductor.

Ohm se preguntó si la electricidad se comportaría del mismo modo que el calor, y si la diferencia de potencial jugaría aquí el mismo papel que la diferencia de temperatura jugaba en termología.

En sus últimos experimentos, Ohm utilizó como f. e. m. (fuerza electro-motriz) constante la proporcionada por un termopar (termocupla), constituido por cobre y bismuto soldados, una de cuyas uniones iba sumergida en hielo y la otra en agua caliente. Para medir la magnitud de la corriente, utilizó una aguja imantada, suspendida convenientemente. De este modo, Ohm pudo estudiar la magnitud de variación de la intensidad de corriente cuando se introducían en el circuito distintas resistencias.

Ohm era muy meticuloso en la realización de medidas y, a pesar de los instrumentos primitivos que utilizó sus resultados fueron lo suficientemente exactos como para demostrar, de manera concluyente, que la intensidad de corriente es igual al cociente entre la tensión y la resistencia. Ohm comprendió instantáneamente la importancia de su descubrimiento y supuso que le sería concedido un puesto en la universidad; en esta creencia, renunció a su cátedra de profesor en el Gimnasio de Colonia.

Las cosas no sucedieron exactamente así, y Ohm estuvo sin colocación durante 5 años; recién a los 60 de edad fue nombrado catedrático de la Universidad de Munich, cargo que desempeñó hasta su muerte, acaecida 5 años después, en 1854.-

EJEMPLOS PARA EXPLICAR DE LA LEY DE OHM

Fórmula General de Ohm

Un método sencillo de recordar las ecuaciones de la ley de Ohm: tapar: la cantidad buscada y los
dos símbolos restantes darán la fórmula requerida.

A condición de que las manifestaciones Físicas, tales como la temperatura, no varíen, la intensidad de la corriente (la cantidad de electrones en movimiento) que circula por un hilo es directamente proporcional a la diferencia de potencial (es decir, la diferencia de presión eléctrica que origina el movimiento de los electrones) entre las extremidades del hilo.

Este hecho se conoce con el nombre de Ley de Ohm. Veamos un ejemplo de esta ley: supongamos que tenemos un circuito en donde circula una corriente de 4 amperios. Por ejemplo una estufa eléctrica conectada a una red de 240 voltios. ¿Cuál es la intensidad de la corriente, si el voltaje de la red cae a 120 voltios?

La ley de Ohm nos dice que, ya que la diferencia de potencial (voltaje) se reduce a la mitad, la corriente debe reducirse en la misma proporción: se divide por dos. La nueva intensidad es, por lo tanto, de 2 amperios. En cada caso la relación voltaje/intensidad es la misma: 240/4=60 A ó 120/2=60 A

Por lo tanto, la ley de Ohm puede escribirse en forma de ecuación: V/I=constante

Si el voltaje, o diferencia de potencial, se mide en voltios, y la intensidad en amperios, entonces la constante, en vez
de ser simplemente un número, es por definición una medida de la resistencia del hilo; o sea, una medida de la resistencia que opone el hilo al paso de electrones a través de él. La resistencia se mide en unidades que reciben el nombre de ohmios.

Por tanto, diferencia de potencial / intensidad de corriente = resistencia en ohmios

Las resistencias medidas en ohmios se suelen simbolizar por el signo R; la diferencia de potencial en voltios se simboliza, generalmente, por V y la intensidad en amperios por I. Utilizando estos símbolos, la ley de Ohm puede escribirse en forma de ecuación: R=V/I. Que se desprende que V=I . R

En realidad, la corriente I=4 amperios es menor cuando la estufa está fría, ya que la resistencia de la mayoría de los metales aumenta con la temperatura. Por eso la ley de Ohm sólo es exacta cuando no varían las propiedades físicas.

Una resistencia de 60 ohmios presenta una oposición moderadamente alta al paso de la corriente eléctrica; si la estufa tiene una resistencia pequeña, digamos de 2 ohmios, presenta un camino mucho más cómodo y a su través pasa una intensidad mucho mayor.

¿Qué intensidad tiene la corriente que pasa por una estufa (con una resistencia de 2 ohmios) que se conecta a una red de 240 voltios? Como lo que buscamos es una intensidad, que se simboliza con una I, utilizaremos la ecuación:
I =V/R=240/2=120 amperios.

Ésta es una intensidad enorme (que fundiría los fusibles tan pronto como se encendiera la estufa). La mayor intensidad que puede soportar, normalmente, un fusible doméstico es de 15 amperios.

¿Cuál es la resistencia de una estufa eléctrica, que funciona justo a esta intensidad, con un voltaje de red de 240 voltios? Aquí lo que buscamos es la resistencia, simbolizada por una R, así qué lo mejor será utilizar la ecuación que contenga la R=V/I=240/15=16 ohmios (Ω)

También la ley de Ohm proporciona un método cómodo para medir voltajes. Un voltímetro sencillo es, realmente, un medidor de intensidad, o amperímetro. Nos indica la intensidad (I) amperios que el voltaje (V) que se quiere conocer hace pasar por una resistencia conocida (R) ohmios.

La magnitud del voltaje se deduce de la ecuación V=I . R- (No se necesita hacer el cálculo en la práctica, ya que esto se ha tenido en cuenta al calibrar el voltímetro.) Si un amperímetro, cuya resistencia total es de 200 ohmios, registra una corriente de 1/10 amperio, ¿cuál es el voltaje que impulsa a la corriente a través del amperímetro?.

O dicho en otras palabras, ¿cuál es la diferencia de potencial entre los bornes del amperímetro? De la ecuación:
V = I . R (esta ecuación es la preferible, ya que la V aparece en el lado izquierdo), se deduce el voltaje: 1/10 amp. . 200 ohm.=20 voltios.

ANALOGÍA DE LA CORRIENTE CON EL FLUJO DE AGUA

Lo intensidad de la corriente de un río es la cantidad de agua que pasa por debajo del puente en un segundo. La intensidad de una “corriente eléctrica” es la cantidad de electrones que pasa en un segundo por un conductor.

El movimiento del agua está producido por una diferencia de altura entre los extremos del río.
Un movimiento de electrones está producido por una diferencia de potencial entre los extremos de un conductor. La diferencia de potencial recibe el nombre de voltaje.

Cuanto mayor es la diferencia de alturas, mayor es la corriente de agua. Del mismo modo, cuanto mayor es la diferencia de potencial (voltaje), mayor es la corriente eléctrica. Al doblar la diferencia de alturas, dobla el flujo de agua; al doblar la diferencia de potencial (voltaje)/ dobla lo intensidad de la corriente. Ésta es la ley de Ohm.

La “estrechez” del río también controla la cantidad de agua que corre por debajo del puente en un segundo. Si el río es muy estrecho, la corriente es pequeña. Del mismo modo, la “resistencia” de un conductor controla el flujo de electrones. Si la resistencia es muy alta, la corriente eléctrica es débil. Si la resistencia es baja (equivalente a un río ancho), la corriente es intensa.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología – TECNIRAMA N°89 La Ley de Ohm

Vida de Bunsen Roberto Inventor del Mechero Científico

En el siglo XIX floreció en Alemania una aristocracia científica. En aquella época, los químicos eran personajes muy importantes y gozaban de gran estima entre el resto de la población. Pero no sólo eran respetados, sino que, con frecuencia, los científicos notables estaban muy bien remunerados, disfrutando de un elevado nivel de vida. La admiración general que la química despertaba, atrajo a los mejores investigadores de otros países, y nadie podía ser considerado un buen químico si no había realizado estudios en Alemania.

Bunsen Robert

Roberto Guillermo Bunsen (1811-1899) fue uno de los personajes más brillantes de la Alemania del siglo xix. Inició sus estudios de zoología,  física y  química  en su ciudad natal, Goettinga (Alemania), ampliando sus conocimientos en París, Berlín y Viena. Fue nombrado profesor de química de la Universidad de Heidelberg, en 1852.

Fue un experimentador audaz. En el curso de uno de sus experimentos perdió la visión de un ojo, lo que no impidió que repitiera el experimento delante de sus alumnos, aterrorizando a los que ocupaban los primeros bancos. En otra ocasión, estuvo a punto de morir envenenado por arsénico y, durante sus experiencias con este elemento, descubrió que el óxido de hierro hidratado era un antídoto eficaz contra dicho tóxico.

Su nombre es recordado, principalmente, por el aparato de laboratorio ideado por él y llamado, en su honor, mechero Bunsen. El gas era, en aquella época, la fuente de calor más usada en los laboratorios; pero si abrimos una llave de gas y prendemos el chorro que brota por el extremo del tubo, la llamita luminosa que se produce es relativamente fría.

Esto se debe a que no existe suficiente cantidad de oxígeno, en el interior de la llama, para que el gas se queme por completo, y el carbono que no ha ardido se deposita en forma de una capa negra, ennegreciendo los objetos calentados. El mechero diseñado por Bunsen aumenta la eficacia calorífica de la llama, ya que su temperatura es más elevada y no deposita hollín. Para conseguirlo, dispuso una entrada de aire regulable en la base del tubo.

La corriente de gas succiona el aire a través del orificio y, si la mezcla resultante contiene 2,5 veces más aire que gas, la llama que produce un zumbido característico será limpia y de gran poder calorífico. Pero si contiene un exceso de aire, la llama se propagará al interior del tubo, ardiendo en la base, en lugar de hacerlo en el extremo superior; es decir, el mechero se cala. Bunsen estudió el tamaño del tubo y del orificio de entrada de aire, hasta conseguir resultados satisfactorios.

Mas, sus esfuerzos científicos no se concentraron en una sola dirección, sino que trabajó en diversos campos, realizando descubrimientos importantes. Inventó una pila de carbono-cinc y un calorímetro de hielo; obtuvo magnesio metálico en grandes cantidades, empleándolo, en parte, como fuente luminosa; contribuyó al análisis de gases y estudió las solubilidades de éstos en los líquidos. Otra de sus invenciones, el jotómetro de mancha, es un dispositivo que se emplea para comparar la intensidad de dos fuentes luminosas, y todavía lleva su nombre.

En colaboración con Kirchhoff, estudió el espectro emitido por los elementos al calentarlos, encontrando dos espectros no identificados, que les condujeron al descubrimiento del cesio y el rubidio. Tras una vida muy activa, falleció en 1899, a la edad de 88 años.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°88 Roberto Bunsen

Diferencia entre peso y masa Concepto Físico

El peso y la masa son, probablemente, las palabras más intensamente empleadas por el lenguaje científico. Están en tan íntima relación que, en circunstancias normales, el peso y la masa de un objeto tienen exactamente el mismo valor numérico. 10 kilos de papas tendrán un peso de 10 kilos y una masa de 10 kilos.

Como los valores son los mismos, se tiene la falsa impresión de que las palabras son sinónimas. Si hemos pesado una zapallo con un aparato que funciona mediante el alargamiento de un resorte (cuanto más pesado sea el objeto, el resorte se estira más), entonces medimos realmente el peso. El zapallo tiene un peso de 10 kilos.

Cuando se ponen las papas en el platillo del aparato, el resorte tira del platillo y de su contenido hacia arriba, oponiéndose a su alargamiento. Por otra parte, la fuerza de la gravedad actúa sobre el zapallo, empujándolo hacia abajo. El resorte se larga hasta que estas dos fuerzas opuestas se equilibran exactamente, y el peso se lee como una medida de dicho alargamiento.

balanza de resorte pensado

Esta balanza de resorte mide la fuerza (P) con que es atraída la masa del zapallo, que según la Ley de Newton, es igual a la masa (m) por la aceleración de la gravedad (g) , ósea: P=m.g. Esta balanza mide peso o fuerza, y según donde se haga a medición variará, porque depende del valor de “g”, no es lo mismo pesar en la Tierra que en la Luna, o en cualquier orto planeta, es decir, el peso varía según la masa m y la aceleración g. Cuanto mas masa o mas aceleración, mayor será el estiramiento “x” del resorte.

El resorte mide, por tanto, la magnitud de una fuerza que intenta estirarlo, y por ello el peso debe ser una clase de fuerza. El empuje hacia abajo del zapallo  depende de dos factores: la cantidad de sustancia o materia contenida en las papas y la atracción de la gravedad de la Tierra. La masa del zapallo no depende del lugar donde se encuentre éste; a menos que se les quite algún trozo, la cantidad de materia que las compone será siempre la misma.

En cambio, el campo gravitatorio de la Tierra (la atracción que ésta ejerce sobre un cuerpo) varía. Si dejamos caer una piedra en un pozo sufrirá un incremento de velocidad de 9,8 metros por cada segundo que cae.

Si la piedra cayera desde un satélite en órbita, situado a muchos kilómetros de distancia, entonces, en un segundo, el incremento de velocidad sería muchísimo menor. Esto es debido a que la piedra se encuentra más lejos de la Tierra y la influencia de esta última sobre ella es mucho menor.

A medida que cambia la acción del campo gravitatorio de la Tierra, cambia el peso del objeto. Si utilizamos un dinamómetro, el zapallo pesará ligeramente menos en la cima de una montaña que al nivel del mar. En cambio, la masa es algo que no varía nunca. Es la cantidad de materia que contiene una sustancia.

Un bloque de plomo está compuesto de un número determinado de átomos. Cada átomo tiene 82 protones, 126 neutrones y 82 electrones. En otras palabras, cada átomo tiene cierta cantidad de materia en él. No importa que el bloque de plomo está en el fondo de un pozo, en la cima de una montaña o en la superficie de la Luna: si no se le ha quitado ni añadido nada, contiene la misma materia y, por lo tanto, la misma masa.

Por este motivo, para medir la masa hay que utilizar un aparato que dé la misma medida, cualquiera que sea el lugar donde sea utilizado. A este fin se usa una balanza. El objeto cuya masa se desconoce, se coloca en el platillo izquierdo de la balanza.

balanza de masa

El platillo desciende, y el brazo de ésta se inclina al no haber nada en el otro platillo para equilibrarlo. Unas pesas metálicas (denominación impropia, pues deberían llamarse masas) se colocan en el otro platillo hasta alcanzar el equilibrio: una masa se equilibra con otra masa.

Si se lleva la balanza a un lugar donde la atracción de la gravedad sea mucho menor, el objeto sufre un menor empuje, pero también le ocurre lo mismo a las “pesas” del otro platillo, y se obtiene el mismo resultado. La balanza de precisión se utiliza para medir masas con una exactitud de cuatro diez-milésimas.

Las pesas, por lo tanto, deben tratarse con mucho cuidado. Si se desgastan pierden cierta masa, y en contacto con los dedos se ensucian con la grasitud de las manos y sufren un aumento de masa. Por ello se deben tomar siempre con pinzas. Éste es uno de los motivos por los que las balanzas de mayor precisión se manejan por control  remoto.

Fuente Consultada:
Enciclopedia de la Ciencia y Tecnología TECNIRAMA N°86

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Curiosas Estadisticas del Mundo Datos Poblacion Hambre Pobreza Energía

CURIOSAS ESTADÍSTICAS DEL MUNDO: POBLACIÓN, HAMBRE, POBREZA, ENERGÍA

datos del mundo

EL ETERNO PROBLEMA DE LA POBREZA MUNDIAL:
Actualmente, en el mundo en desarrollo 1.300 millones de personas viven con menos de un dólar diario y cerca de 3.000 millones, casi la mitad de la población mundial, con menos de dos dólares.

El hecho de que los países industrializados alcancen los porcentajes más bajos de pobres, no significa que en esos países no los tengan, pues el problema de la pobreza es mundial. Lo que ocurre es que en esos países la mayoría de sus habitantes no son pobres y gran parte tiene acceso a condiciones dignas de vida. En cambio, en los países en desarrollo, existe un predominio de pobres y una minoría de ricos.

En el mundo, la mayoría de los pobres todavía se localiza en las zonas rurales, pero esta situación está cambiando y probablemente en el siglo XXI la mayor parte viva en ciudades. Este proceso será resultado de la migración a las zonas urbanas, del menor acceso a recursos productivos, del desarrollo insuficiente de la vivienda urbana y la infraestructura física, etcétera.

EN BUSCA DE SOLUCIONES:

Tan grave es este problema que ha crecido la conciencia de la necesidad de cooperación internacional para intentar mejorar esta situación. Una de las iniciativas que emprendió la Organización de las Naciones Unidas es el Programa de las naciones Unidas para el Desarrollo (PNUD).

Este programa aconseja que se preocupen por la calidad del crecimiento económico y por las siguientes cuestiones:

Crecimiento sin empleo: la economía general crece pero sin que aumenten las oportunidades de empleo. En los países en desarrollo el crecimiento sin empleo también redunda en muchas horas de trabajo e ingresos muy bajos para centenares de millones de personas.

Crecimiento sin equidad: los frutos del crecimiento económico benefician especialmente a los ricos, dejando a millones de personas sumergidas en una pobreza cada vez más profunda. Entre 1970 y 1985, el valor de la producción mundial aumentó un 40% pero el número de pobres creció el 17%.

Crecimiento sin voz de las comunidades: la represión política y los controles autoritarios han impedido las demandas de mayor participación social y económica en los países donde el crecimiento de la economía no ha sido acompañado por un fortalecimiento de la democracia o de las posibilidades de expresarse de la gente.
El PNUD considera que existen factores a tomar en cuenta para que el desarrollo humano acompañe al crecimiento:

Equidad: cuanto mayor sea la igualdad con que se distribuye la producción mundial y las oportunidades económicas, tanto más posible será que se traduzcan en un mejoramiento del bienestar humano.

Oportunidades de empleo: el crecimiento económico se concreta en la vida de la gente cuando se ofrece trabajo productivo y bien remunerado. Una manera importante de lograrlo consiste en procurar crecimiento por medio de actividades económicas que requieren abundante mano de obra.

Acceso a bienes de producción: el Estado debería actuar para lograr que las personas más pobres tengan satisfechas sus necesidades básicas.

Gasto social: los gobiernos y las comunidades pueden influir en gran medida en el desarrollo humano, encauzando una parte importante del ingreso público hacia el gasto social más prioritario: salud, educación, justicia, atención de los ancianos.

Igualdad de género: brindar a la mujer mejores oportunidades y mejor acceso a la enseñanza, las guarderías infantiles, el crédito y el empleo.

Esto se complementa con políticas de población, buen gobierno y una sociedad civil activa.

Un esfuerzo decidido para aumentar la capacidad humana -mediante mejor enseñanza, mejor salud y mejor nutrición- puede ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países de bajos ingresos y escaso desarrollo humano.

Teoría de Desintegración Nuclear del Átomo Radioactividad Espontánea

El 24 de febrero de 1896, el físico francés Enrique Becquerel dio a conocer los sensacionales experimentos de que tratamos a continuación, a los que el científico había llegado por puro azar: los cristales de una determinada sal de uranio, tras haber sido expuestos, durante cierto tiempo, a la luz del sol, impresionaban una placa fotográfica situada cerca de ellos, aunque dicha placa estuviera en el interior de una envoltura opaca.

Es decir, la sal parecía emitir misteriosas radiaciones capaces de atravesar cuerpos que normalmente impiden el paso de la luz. Pero Becquerel, prosiguiendo sus experimentos, llegó a resultados cada vez más desconcertantes: el fenómeno se producía, no sólo con la sal de que hablamos, sino con todas las sales de uranio, y se verificaba también en la oscuridad; esto es, sin que las sales hubieran sido previamente expuestas a luz alguna.

La emisión de aquellas radiaciones desconocidas no cesaba, ni siquiera cuando las sales estaban en solución. Una vez más, la ciencia se veía ante algo nuevo y fantástico, absolutamente inexplicable desde el punto de vista de los principios entonces conocidos. El hecho, especialmente, de que el fenómeno se produjera con independencia de las manipulaciones llevadas a cabo en las sales, parecía indicar que su origen debía buscarse en la intimidad más profunda de la materia, allí donde las transformaciones químicas y físicas no pueden causar cambios. Hoy sabemos que esa parte “íntima” de la materia no es otra cosa que el núcleo  de los átomos.

LOS PRIMEROS ESTUDIOS SERIOS SOBRE LA RADIACTIVIDAD

Como suele suceder en estos casos, las experiencias de Enrique Becquerel cayeron en un ambiente de general escepticismo; a pesar de ello, algunos apasionados investigadores (baste recordar el nombre de los esposos Curie) dedicaron toda su vida al estudio del fenómeno, que fue bautizado con el nombre de “radiactividad”. Ante todo se descubrió que los minerales de uranio contenían una serie de elementos aún desconocidos, capaces de emitir radiaciones más intensas que las del propio uranio. De esta forma se llegó al famoso descubrimiento del radio (llamado así, precisamente, a causa de su elevada radiactividad), del polonio y del actinio.

Inmediatamente se empezaron a estudiar las misteriosas radiaciones emitidas, que fueron separadas y analizadas gracias a ingeniosos procedimientos, y se descubrió que eran de tres tipos distintos, genéricamente bautizados como “alfa”, “beta” y “gamma“. Todas ellas integran, como seguramente se recordará, las famosas “radiaciones nucleares”, a las que nos hemos referido en un artículo precedente. (ver radiaciones del átomo)

Teniendo en cuenta lo que entonces dijimos, no nos será muy difícil llegar a la siguiente conclusión: tanto en las emisiones alfa como en las beta, el número de protones, es decir, el número atómico del átomo afectado se transforma. De hecho, con las radiaciones alfa el núcleo pierde dos protones (además de dos neutrones); con las beta gana un protón, a expensas de un neutrón. Pero como el número atómico es el factor que caracteriza a los elementos, cuando un núcleo inestable (radiactivo) emite una radiación, además de estabilizarse, cambia totalmente de naturaleza; es decir, se produce la transformación de un elemento en otro distinto.

Esta afirmación, que hoy no nos cuesta ningún trabajo aceptar, fue enunciada en 1903 por Rutherford y Soddy, y dio origen a una teoría completamente revolucionaria, que se ha hecho famosa bajo el nombre de “Teoría de la desintegración radiactiva”. Con ella se venía abajo el principio de la absoluta inmutabilidad de los elementos, que fue uno de los ejes cardinales de la Química hasta finales del siglo pasado.

Según la nueva teoría, los átomos de los elementos radiactivos, a diferencia de los de los elementos estables, pueden sufrir una “desintegraciónespontánea, emitiendo partículas alfa o beta, y transformándose en átomos de un nuevo elemento “hijo”, química y físicamente distinto del elemento “madre”.

Sin embargo, el elemento así nacido no siempre es definitivamente estable, ya que, a su vez, puede ser radiactivo y dar lugar, mediante la emisión de partículas, a otro elemento, y así, indefinidamente. El conjunto de todos los elementos derivados del mismo tronco, por el sistema descrito, se llama “familia radiactiva”.

Becquerel, el físico que observó por primera vez los efectos de la radiactividad.
Sus experiencias le valieron el Premio Nobel.

LAS SERIES RADIACTIVAS

La ilustración adjunta es, en realidad, un “retrato de familia”: de una familia de elementos radiactivos, naturalmente. En el centro puede verse el núcleo del elemento inicial y luego, sucesivamente, toda su descendencia hasta el último “hijo”.

Hemos partido de un isótopo del uranio, concretamente el uranio 238, cuyo número atómico (número de protones) es 92 y su número de masa (suma de los neutrones y los protones) 238. Por lo tanto su 90 símbolo es 238/92 U.

Se trata de un isótopo radiactivo que emite partículas alfa (2 protones + 2 neutrones): en consecuencia, el elemento “hijo” en el que se transforma tiene un número atómico inferior en dos unidades (los dos protones), es decir: 90, y un número de masa inferior en cuatro unidades (dos protones y dos neutrones); es decir: 234.

El “hijo” del uranio 238 es, pues, el torio 234, cuyo símbolo se escribe 234/90 Th. Pero tampoco esta vez se trata de un elemento estable, ya que el torio desarrolla una actividad beta, transformando un neutrón en protón y originando, al hacerlo, un nuevo electrón, que se desprende del átomo; de esta forma, el torio se convierte en un elemento distinto, que posee un neutrón menos y un protón más, debí-a lo cual, el “hijo” del torio 234 tiene 91 como número atómico y 234 como número de masa. El nuevo elemento se llama protoactinio 234 ( 234/91 Pa).

En símbolos, podemos escribir:       

238/92 U -alfa-> 234/90 Th -beta-> 234/91 Pa 92

Pero no termina aquí el proceso, ya que se producen 12 elementos más antes de llegar a la formación de uno estable, que es el plomo 206  (206 /82 Pb). Con éste se completa la serie del uranio 238, que lleva el nombre del elemento inicial.

En la naturaleza existen tres familias radiactivas, compuestas —en total— por unos cuarenta elementos radiactivos naturales. Cada familia lleva el nombre del elemento inicial: tenemos así la familia del uranio 238, la del torio 232 y la del actinio, llamado también uranio 235. El último descendiente de todas ellas es un isótopo estable del plomo.

Podemos imaginar las tres familias radiactivas como tres torrentes que bajan de la montaña y, tras muchos saltos y cascadas, desembocan en el mar: el agua es la materia en continua transformación, las cascadas son las conversiones de un elemento en otro, el mar es la estabilidad final. Pero ni el agua puede volver a la montaña espontáneamente, ni en la cadena de elementos pueden producirse transformaciones espontáneas en sentido inverso a las indicadas.

Es decir: en las condiciones actuales de nuestro planeta, jamás vemos al plomo transformarse en uranio, sino a éste, a través de sus diversos descendientes, en plomo. Estamos, pues, ante uno de los infinitos ejemplos que demuestran cómo todo, en la naturaleza, tiende a la estabilidad, por medio de transformaciones irreversibles; y, si fuese lícito aplicar a estos conceptos las palabras del lenguaje común, deberíamos identificar esta estabilidad con la muerte física de nuestro universo, que se producirá cuando todas las transformaciones naturales capaces de generar calor se agoten. Pero estamos lejos del final.

Las estrellas brillan sin cesar y en ellas el hidrógeno se transforma en toda clase de elementos, desde el helio al uranio, con reacciones que se producen espontáneamente a determinadas temperaturas, liberando grandes cantidades de energía, la que seguirá moviéndose durante miles de millones de años.

esposo curie
María y Pedro Curie, que dedicaron su vida a los estudios sobre las sustancias
radiactivas y descubrieron el radio y el polonio.

Fuente Consultada:
Enciclopedia del Estudiante Superior Fasc. N°45
Físico Químico de Pilar Escudero y Otros.