El Fin del Éter

Biografia de Ramon Cajal Santiago y Su Obra Científica Premio Nobel

Biografía de Ramón Cajal Santiago y Su Obra Científica

Santiago Ramón y Cajal nace en Petilla de Aragón el 1 de mayo de 1852, hijo de Justo Ramón y Antonia Cajal. Toda su niñez y adolescencia van a estar marcados por los continuos cambios de residencia entre las distintas poblaciones del Alto Aragón, traslados motivados por la profesión de médico que ejercía su padre. Su formación se inició en Valpalmas, donde acudió a la escuela local, aunque de hecho su primer maestro fue su propio padre, que le enseñó a leer y a escribir, le inició en la aritmética, en geografía y en francés.

En el año 1860 su padre es nombra do médico en Ayerbe, y toda la familia se traslada a dicha localidad. Allí se convirtió en un pésimo estudiante y se acentuaron sus travesuras al verse más desatendido por su padre. Por estos motivos le enviaron a estudiar el bachillerato al colegio de los Escolapios de Jaca en 1861.

El régimen de terror imperante en dicha institución hizo sus padres cambiar de opinión y le mandaron a estudiar al instituto de Huesca. Durante estos años y por orden expresa de su padre, compagina los estudios con el trabajo en una barbería.

ramon y cajal santiago cientifico

Santiago Ramón y Cajal (1852-1934): histólogo español obtuvo el Premio Nobel de Fisiología y Medicina en 1906. Pionero en la investigación de la estructura fina del sistema nervioso, Cajal fue galardonado por haber aislado las células nerviosas próximas a la superficie del cerebro.  En 1892 se instaló en Madrid y fue nombrado catedrático de histología de la universidad de Madrid, donde trabajó y prolongó su labor científica hasta su muerte.

En 1873, ganó por oposición una plaza de Sanidad Militar y al siguiente año fue destinado a Cuba con el grado de capitán. Se doctoró en Madrid en 1877. En 1879 fue, por oposición, director de Museos Anatómicos de la Universidad de Zaragoza; catedrático de Anatomía en la Universidad de Valencia (1883).

Fruto de sus trabajos fue el Manual de Histología y técnica micrográfica (1889). Catedrático de Histología en la Universidad de Barcelona (1887), dio a conocer poco después sus grandes descubrimientos sobre las células nerviosas. En 1892 obtuvo la cátedra de Histología normal y Anatomía patológica de la Universidad de Madrid.
El Gobierno español creó el Laboratorio de Investigaciones Biológicas y la revista Trabajos de Laboratorio, que substituyó a la Revista trimestral de Micrografia, publicada por él desde 1897, y le encomendó la dirección de ambos.
Entre 1899 y 1920 dirigió el Instituto Nacional de Higiene; en 1906 compartió con C. Golgi el premio Nobel de Medicina por sus investigaciones acerca de la estructura del sistema nervioso. Además de la obra citada, deben mencionarse entre las fundamentales las siguientes; Textura del sistema nervioso del hombre y de los vertebrados (1899-1904), Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Reglas y consejos sobre investigación biológica.
clase de disección dada por Ramón Cajal
SOBRE SU TRABAJO CIENTÍFICO:
Teoría de la neurona
1889: De todas las células, las nerviosas parecen las más complejas, y de todos los órganos y sistemas de órganos, el cerebro y el sistema nervioso parecen los más complejos. Además, de todas las partes del cuerpo humano, el cerebro y el sistema nervioso son, o deberían ser, los más interesantes, puesto que determinan nuestra condición de humanos.
Waldeyer-Hartz (véase 1888) fue el primero en sostener que el sistema nervioso estaba constituido por células separadas y por sus delicadas extensiones. Estas últimas, señalaba, se aproximaban entre sí pero no llegaban a tocarse y mucho menos a juntarse, de modo que las células nerviosas permanecían separadas. Llamó a las células nerviosas neuronas, y su tesis de que el sistema nervioso está compuesto por neuronas separadas es la llamada teoría de la neurona.
El histólogo italiano Camillo Golgi (Í843 o 1844-1926) había ideado quince años antes un sistema de tinción con compuestos de plata, que ponía al descubierto la estructura de las neuronas con todo detalle. Utilizando esa tinción, pudo demostrar que la tesis de Waldeyer-Hartz era correcta.
En efecto, mostró que en las neuronas se operaban complejos procesos, pero que los de una no afectaban a los de sus vecinas, pese a estar muy próxima a ellas. Los delgados espacios que las separaban se llaman sinapsis (es curioso que esta palabra derive de la griega que significa «unión», pues a simple vista parece que se unen, pero en realidad no es así).

Santiago Ramón y Cajal (1852-1934) perfeccionó la tinción de Golgi, y en 1889 desentrañó la estructura celular del cerebro y del bulbo raquídeo con detalle, fundamentando sólidamente la teoría de la neurona. Por sus trabajos sobre la teoría de la neurona, Golgi y Ramón y Cajal compartieron el premio Nobel de medicina y fisiología en 1906.

En 1904 concluye su gran obra Textura del sistema nervioso del hombre y de los vertebrados. Dos años después, en 1906, recibe junto al histólogo italiano Golgi el premio Nobel de Fisiología y Medicina.
 
SUS OBRAS: Su labor incesante durante toda su vida se ve plasmada en otras obras como Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Manual técnico de anatomía patológica (1918) y la creación de nuevos métodos como el del formal urano para la tinción del aparato endoneuronal de Golgi y la técnica del oro sublimado.
En 1922 se jubila como catedrático y le es concedida la medalla de Echegaray. Durante sus últimos años sigue publicando nuevas obras como Técnica micrográfica del sistema nervioso y ¿Neuronismo o reticulismo?, considerada como su testamento científico.
Su vida concluyó en Madrid el 17 de octubre de 1934 pero su obra siguió y sigue viva gracias a la creación de la institución científica que lleva su nombre.
ramon y cajal
En 1952 se rindió un homenaje a don Santiago en «Hipócrates Sacrum» en Montpellier; sus discípulos, doctor Turchini y doctor Paulís, muestran una abundante ilustración sobre la vida de Ramón y Cajal.
A pesar de la natural aversión que Ramón y Cajal sentía por la relación social, su extraordinaria popularidad y prestigio mundiales le obligaron a frecuentar los círculos selectos, políticos, intelectuales y distinguidos de la época. Tuvo ocasión así de relacionarse con las personalidades más destacadas de la nación: José Echegaray, Menéndez y Pelayo, Benito Pérez Galdós,  José Canalejas, conde de Romanones, Pelayo, Maura, Silvela y tantos otros
SU OBRA DURANTE LA PRIMERA GUERRA MUNDIAL
En 1914 el cruel estallido de la Primera Guerra Mundial conmovió a toda Europa. Aunque España guardó neutralidad, en su interior se vivía una política muy agitada. Pero ajenos, o casi ajenos, a los tristes acontecimientos europeos y españoles, don Santiago y sus colaboradores continuaban sin desfallecer sus investigaciones en el laboratorio. Las dificultades eran mayores que en tiempos pasados.
Trabajaban aislados, porque la guerra había roto toda comunicación entre los sabios europeos. Desconocían, pues, cuantos adelantos científicos se producían en el mundo. Los materiales y el equipo, que debían importarse, habían elevado excesivamente su costo y aumentado las dificultades de obtención.
También la cuestión de imprenta había elevado sus precios hasta hacerlos prácticamente inasequibles a las posibilidades del laboratorio. Todo eran problemas para don Santiago. No obstante, el tesón y la voluntad hicieron milagros y el equipo de investigadores logró varios descubrimientos importantes.
Una vez terminada la guerra y restablecida la comunicación en el mundo científico, Ramón y Cajal sufrió las mayores tristezas. Los que eran sus mejores amigos, admiradores y seguidores de su obra, habían muerto. Así, van Gebuchten, Waldeyer, Retzius, Ehrlich, Krause y Edinger. Sólo quedaban algunos científicos americanos interesados en sus investigaciones, pero no conocían el español.
Y entonces puso rápidamente manos a la obra, para remediar aquel error de previsión suyo. Hizo que se tradujesen al alemán, francés e inglés los trabajos más importantes suyos y de sus colaboradores, aunque tuvo que pasar por la amarga decepción de que, en general, sus trabajos quedaban desconocidos, pues eran varios los científicos que se atribuían descubrimientos hechos por él años antes.
UN GRAN CURIOSO PRECOZ:
Las continuas travesuras de Santiaguo tenían la virtud de acabar la paciencia del maestro, y no era para menos. Como castigo solía mandarlo al «cuarto oscuro», habitación casi subterránea habitada por abundantes ratas. A los demás chicos este castigo les horrorizaba, pero al indómito Santiaguo le servía para preparar con calma y tranquilidad las travesuras del día siguiente.
Fue en una de aquellas solitarias estancias en el «cuarto oscuro» cuando descubrió lo que él creyó algo nuevo, el principio de la cámara oscura. Pero se trataba de un descubrimiento físico ya hecho por Leonardo de Vinci. El cuarto tenía un solo ventanuco que daba a la plaza del pueblo, en la que batía el sol. Un día, estaba Santiagué mirando distraídamente el techo, cuando se dio cuenta de que el rayo de luz que penetraba por la rendija del ventanuco proyectaba en el techo, cabeza abajo y con sus propios colores, las personas, carretas y caballerías que pasaban por el exterior.
Quiso ensanchar la rendija y las figuras se desdibujaron y hasta se desvanecieron. Entonces la hizo más estrecha con la ayuda de papeles y observó que cuanto más pequeña era la rendija más vigorosas y detalladas se hacían las figuras. El descubrimiento le dio qué pensar y acabó por convencerse, con sus infantiles conclusiones, de que la física era una ciencia maravillosa.
A partir de aquel día Santiagué sacó el máximo provecho de sus castigos, pues se dedicó a calcar sobre papel las vivas y coloreadas figuras que llegaban hasta su prisión para aliviar su soledad. No es de extrañar que si hasta entonces el «cuarto oscuro» no había sido para él un castigo penoso, menos lo fuese desde que hizo su descubrimiento, llegando a tomar verdadero cariño a su cárcel y sus sombras brillantes.
monumento de ramon y cajal
La gloria se hizo piedra en este monumento de Victorio Macho. La fuente de la vida y de la muerte mezclan sus aguas, mientras los ojos del sabio quieren escudriñar el hondo misterio que les junta.
Fuente Consultada:
Gran Enciclopedia Universal Espasa Calpe Tomo 32 Entrada: Ramón y Cajal
Celebridades Biblioteca Hispania Ilustrada Edit. Ramón Sopena
Historia y Cronología de la Ciencia y Los Descubrimientos Isaac Asimov

 

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía. El proceso fue larguísimo. Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga. Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas. Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia. 3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento. 1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  “Principia”,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA

Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Naturaleza de la Luz Onda o Partícula Teorías Fisicas

FÍSICA: TEORÍA ONDULATORIA Y CORPUSCULAR

LA CURIOSIDAD DEL HOMBRE: Un hombre de ciencia destina una buena parte de su tiempo en pensar “qué pasaría si …” ¿ … si alguien inventara algo para bloquear nuestra gravedad? ¿ … si la luz fuera a la vez una partícula y una onda? ¿ … si hubiera un mundo de antimateria? ¿ … si el Universo que ahora parece expandirse, se contrajera en ei futuro? El investigador científico plantea la pregunta fundamental: ¿Qué cíase de Universo es éste donde yo vivo?

Es muy improbable que alguna vez llegue el tiempo en que ios humanos agoten sus preguntas respecto a la naturaleza del Universo. Recordemos que Newton se comparaba a sí mismo con un niño jugando con guijarros y conchas en una playa, mientras el “gran océano de la verdad estaba sin ser descubierto” delante de él. El científico siempre trabaja en las orillas del “gran océano de la verdad”, esforzándose en descubrirle cada vez más.

A principios del siglo XX, algunos de los que se preguntaban “qué pasaría si . . .” expusieron ideas que, al principio, se veían tan imposibles como la afirmación de que la gente viviría felizmente en el centro de la Tierra. Al investigar estas ideas aprendieron mucho sobre la orilla del océano de la verdad.

Una de las preguntas más importantes fue estimulada por el estudio de la luz, en particular, de los espectros: ¿Es posible que la luz sea a la vez una onda y una partícula? Las consecuencias de esta pregunta han mantenido ocupados a los científicos por más de cincuenta años. Otras preguntas, relacionadas algunas con el problema de la onda-partícula y otras muy diferentes, han surgido en la actualidad.

La Física no está completa. El hombre está aún en la playa de Newton, tratando de comprender el océano que está delante de él. Ahora analizaremos lo relativo a la onda-partícula y también introduciremos algunas otras preguntas para las que están buscando respuestas los científicos actuales.

Como las teorías modernas con relación a la luz no son completas, se van agregando nuevas ideas. Sin embargo, una piedra angular de la teoría moderna es que la luz se propaga como ondas, que tienen muy corta longitud de onda.

PRIMERAS INTERPRETACIONES: El hombre es capaz de ver los objetos que lo rodean debido a la luz que, procedente de ellos, llega a sus ojos. Los objetos brillantes, tales como el Sol o una llama luminosa, emiten su propia luz. Todos los demás son visibles a causa de la luz que reflejan.

Un grupo de filósofos griegos del siglo IV a. de J. C. interpretó este hecho diciendo que la luz estaba formada por diminutos corpúsculos, emitidos por los objetos visibles y recibidos por el ojo humano. Esta hipótesis estaba en contradicción con las ideas postuladas por otra escuela del pensamiento griego, que interpretaba el mecanismo de la visión como productos de unos invisibles rayos, emitidos por el propio ojo para sondear sus alrededores.

Los rayos de luz obedecen a reglas muy simples, algunas de las cuales eran ya conocidas por los antiguos griegos. Así, por ejemplo, sabían que la luz sigue siempre trayectorias rectilíneas, empleando el menor tiempo posible en recorrer la distancia existente entre dos puntos. Del mismo modo, se sabía entonces que la luz era reflejada por la superficie del agua, o por una superficie metálica pulimentada, y se interpretó el fenómeno diciendo que los rayos luminosos, al llegar a estas superficies, sufrían un brusco cambio de dirección.

Hooke observa las ondas en un lago

También era conocida en aquella época la ley de la reflexión, es decir, que el ángulo, respecto a la normal, con que el rayo luminoso incide en la superficie, es igual al ángulo que forma, con dicha normal, el rayo reflejado.

Las lentes de vidrio y cuarzo eran también conocidas, así como las desviaciones que producían en los rayos de luz que las atravesaban. En este sentido, los griegos utilizaron el poder que poseen las lentes de concentrar la luz, y el calor a que ésta da lugar, par» encender fuego, por ejemplo.

Nada nuevo fue descubierto en este campo hasta la Edad Media, en que se construyeron lentes especiales para ser utilizadas como lupas. Un siglo después empezaron a emplearse las lentes para corregir los defectos de la visión humana, así como en la construcción de los telescopios astronómicos que utilizaron Galileo, Kepler y otros astrónomos. Leeuwenhoek las usó también para construir el primer microscopio.

En todos estos instrumentos, los rayos de luz sufren una desviación al pasar del aire al vidrio, o viceversa. La ley que gobierna esta desviación, propuesta primeramente por Willebrord Snell, en 1621, es la ley de la refracción.

LA LUZ COMO ONDA O COMO PARTÍCULA:

Las leyes de la reflexión y de la refracción son las dos leyes básicas por las que se rigen los rayos luminosos. Una vez descubiertas, faltaba una teoría, acerca de la naturaleza de la luz, que las explicase. Surgieron entonces dos distintas: la ondulatoria y la corpuscular.

Los principios de la teoría ondulatoria fueron expuestos por Roberto Hooke en 1607; éste comparó las ondas formadas en la superficie del agua cuando una piedra cae en ella, con el tipo de perturbación que se origina en un cuerpo emisor de luz.

robert hooke

Robert Hooke, concluyó que la luz se comporta como una onda

Ésta debía tener su origen en algún tipo de vibración producida en el interior del cuerpo emisor y, consecuentemente, se propagaría en forma de ondas. Hooke formuló estas ideas después de haber descubierto el fenómeno de la difracción, que hace aparecer iluminadas ciertas zonas que deberían ser oscuras. Encontró la explicación observando detenidamente el comportamiento de las ondas formadas en la superficie del agua.

En 1676, Olaus Roemer, considerando el carácter ondulatorio de la luz, pensó que ésta no podía tener una velocidad infinita, y se dispuso a medir la velocidad de las ondas luminosas. Observando los eclipses de las lunas de Júpiter notó que, cuando la Tierra se encontraba a la máxima distancia de dicho planeta, estos eclipses se retrasaban unos 15 minutos.

Ello quería decir que la luz empleaba este tiempo en recorrer la distancia adicional. Según este método, Roemer obtuvo para la velocidad de la luz un valor de 3.100.000 Km./seg., muy cercano al valor actual aceptado, que es de 2,990.000 Km./seg.

TEORÍA ONDULATORIA: Las leyes de la óptica se pueden deducir a partir de una teoría de la luz más sencilla pero de menores alcances propuesta en 1678 por el físico holandés Christian Huygens.

HUYGENS Christian (1629-1695)

Esta teoría supone simplemente que la luz es un fenómeno ondulatorio y no una corriente de partículas, pongamos por caso. No dice nada de la naturaleza de las ondas y, en particular —puesto que la teoría del electromagnetismo de Maxwell no apareció sino un siglo más tarde— no da ninguna idea del carácter electromagnético de la luz.

Huygens no supo si la luz era una onda transversal o longitudinal; no supo las longitudes de onda de la luz visible, sabía poco de la velocidad de la luz. No obstante, su teoría fue una guía útil para los experimentos durante muchos años y sigue siendo útil en la actualidad para fines pedagógicos y ciertos otros fines prácticos. No debemos esperar que rinda la misma riqueza de información detallada que da la teoría electromagnética más completa de Maxwell.

La teoría de Huygens está fundada en una construcción geométrica, llamada principio de Huygens que nos permite saber dónde está un frente de onda en un momento cualquiera en el futuro si conocemos su posición actual; es: Todos los puntos de un frente de onda se pueden considerar como centros emisores de ondas esféricassecundarias. Después de un tiempo t, la nueva posición del frente de onda será la superficie tangencial a esas ondas secundarias.

Ilustraremos lo anterior con un ejemplo muy sencillo: Dado un frente de onda en una onda plana en el espacio libre, ¿en dónde estará el frente de onda al cabo de un tiempo t? De acuerdo con el principio de Huygens, consideremos varios puntos en este plano (véanse los puntos) como centros emisores de pequeñas ondas secundarias que avanzan como ondas esféricas. En un tiempo t, el radio de estas ondas esféricas es ct, siendo c la velocidad de la luz en el espacio libre.

El plano tangente a estas esferas al cabo del tiempo t está representado por de. Como era de esperarse, es paralelo al plano ab y está a una distancia ct perpendicularmente a él. Así pues, los frentes de onda planos se propagan como planos y con una velocidad c. Nótese que el método de Huygens implica una construcción tridimensional y que la figura es la intersección de esta construcción con el plano de la misma.

frente de onda de luz

Frente de Onda de Luz

Primera Ley de la Óptica

“En la reflexión el ángulo de incidencia de una onda o rayo es igual al ángulo de reflexión, ósea en este caso i=r. Ambos rayos siempre se encuentran contenidos en un mismo plano.”

Llamamos refracción de la luz al fenómeno físico que consiste en la desviación de un rayo de luz al pasar de un medio transparente a otro medio también transparente. Un ejemplo diario es cuando miramos un lapiz dentro de un vaso de agua.

Difracción de la luz

Segunda Ley de la Óptica

“El cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es constante para todos los rayos reflactados. Todos los rayos, incidentes y reflactados se encuentran en un mismo plano”

NACE LA TEORÍA CORPUSCULAR: La teoría de Hooke se vio pronto derrotada por las ideas de Isaac Newton, quien propuso otra teoría corpuscular corregida.

En su famoso libro titulado “Óptica”, éste describió un gran número de experimentos dirigidos a explicar el comportamiento de la luzen todos sus aspectos, entre los que se destacaba la descomposición de la luz en sus distintos colores, al atravesar un prisma. De acuerdo con la teoría corpuscular, Newton explicó los diferentes colores del espectro, mediante la existencia de distintos corpúsculos.

En el curso de sus elaborados experimentos, Newton descubrió el fenómeno de la difracción y el de la interferencia. Dos rayos de luz, ambos procedentes del Sol, y convenientemente separados para que sus recorridos fuesen diferentes, producían anillos luminosos, oscuros y coloreados (llamados anillos de Newton), cuando se los hacía pasar a través de la lente de un telescopio.

Hooke había descrito antes la formación de irisaciones en las pompas de jabón, pero fue incapaz de explicar el fenómeno. Tanto la debían a la interferencia de dos ondas luminosas, de recorridos ligeramente distintos.

El fenómeno de la difracción casi destruyó la ingeniosa interpretación corpuscular. Newton había llegado a los mismos resultados que Hooke, tras llevar a cabo experimentos muy cuidadosos: una pequeña porción de luz se extendía por una región que, seguía teoría corpuscular, debía permanecer totalmente a oscuras. Este hecho era, exactamente, lo que había predicho la teoría ondulatoria de la luz debida a Hooke.

El físico holandés Christian Huygens sentó las bases más generales de esta teoría, al explicar con todo detalle la propagación de los movimientos ondulatorios. Se estableció entonces una agitada controversia entre los partidarios de una y otra teoría, que quedó de momento sin resolver, debido a la carencia de aparatos lo suficientemente exactos que proporcionasen datos experimentales decisivos.

En 1801, Thomas Young asestó un terrible golpe a la teoría corpuscular con su experimento acerca de las interferencias; según éste, se producían franjas luminosas y oscuras que sólo podían ser explicadas aceptando que la luz tenía un carácter ondulatorio. El descubrimiento del fenómeno de la polarización, debido a Augustín Fresnel, en 1816, significó un nuevo apoyo en favor de la teoría ondulatoria. Según ella, la luz polarizada estaba compuesta por ondas que vibraban en un solo plano.

Tanto las ondas sonoras como las que se forman en el agua necesitan un medio para poder propagarse. Durante todo el siglo xix se consideró que las ondas luminosas eran perturbaciones producidas en el éter, sustancia invisible que lo invadía todo, incluso el espacio “vacío”. Clerk Maxwell llevó a cabo un tratamiento matemático de las ondas luminosas, demostrando que éstas eran un tipo dé radiación electromagnética, y similares, por tanto, a las ondas de radio. Una pregunta quedaba por hacer: ¿era necesaria la existencia del éter para la propagación de las radiaciones electromagnéticas?.

En seguida se pusieron en acción numerosos dispositivos experimentales, para tratar de demostrar su existencia; entre ellos puede señalarse el de Oliver Lodge —que constaba de dos discos que giraban muy próximos—, con el que trató de verificar si el éter ejercía algún tipo de fricción. Las observaciones astronómicas sugerían que si, de verdad, existía el éter y éste envolvía la Tierra, no debía de girar con ella, pues, de otro modo, su rotación habría afectado las observaciones de los telescopios.

Los estadounidenses Michelson y Morley realizaron una serie de experimentos para determinar el retraso de la rotación del éter con respecto a la de la Tierra, encontrando que era igual a cero. El éter, por tanto, permanecía estacionario, o no existía, o la luz se comportaba de un modo p’eculiar. De esta forma se llegó a la conclusión de que esta sustancia tan tenue, que tanta resistencia había opuesto a ser detectada, no era más que un ente hipotético.

El éter era una complicación innecesaria. La luz se comportaba de un modo peculiar cuando se trataba de medir su velocidad, ya que mantenía una propagación siempre igual. Este resultado condujo a Albert Einstein a formular su teoría de la relatividad, basada en la constancia de la velocidad de la luz.

La idea corpuscular es quizá la mejor forma de representarnos un rayo de luz. Los corpúsculos viajan en línea recta, ya que tienden siempre a desplazarse entre dos puntos por el camino más corto posible. Los cuerpos muy calientes, como el Sol o el filamento de una lampina eléctrica, emitirían un chorro de diminutas partícula. Los demás cuepos se ven debido a que reflejan algunos de los corpúsculos que los golpean.

El cuerpo humano no emite corpúsculos luminosos propios, pero se hace visible cuando refleja los corpúsculos en los ojos de las personas que están mirándolo. De acuerdo con la teoría corpuscular, toda la energía luminosa que llega a la Tierra, procedente del Sol, es transportada por corpúsculos.

Las teorías modernas sobre la naturaleza de la luz sugieren que es, en realidad, un conjunto de diminutas partículas emitidas por cuerpos calientes, como el Sol. Pero existe una sutil diferencia entre la moderna partícula luminosa, llamada fotón, y la versión antigua, el corpúsculo, consistente en que el fotón no transporta energía, sino que es energía.

Podemos pensar en un fotón como en un paquete de energía. Es diferente a todas las demás clases de energía, ya que existe sólo en movimiento. Cuando se desplaza a sus velocidades normales, aproximadamente 300.000 kilómetros por segundo, los fotones se comportan como un trozo ordinario de materia. Pueden entrar en colisión con partículas, tales como electrones y protones, y desviarlos, del mismo modo que si fueran partículas normales.

En los fotómetros fotoeléctricos, empleados en fotografía;, los fotones que golpean un trozo de metal sensible a la luz liberan electrones de él. Estos electrones forman una corriente eléctrica que mueve una aguja, indicando la intensidad de la luz. Se ha descubierto que un fotón libera un electrón.

Los electrones son partículas y se liberan por los fotones que se comportan como partículas. Isaac Newton fue defensor de la vieja teoría corpuscular, la cual, debido a su influencia, dominó durante el siglo XVIII. La teoría moderna de los fotones fue consecuencia del trabajo de Alberto Einstein sobre el efecto fotoeléctrico, en el año 1905.

Sigamos ahora con esta nueva visión física del fenómeno.

NUEVA VISIÓN CORPUSCULAR: EINSTEIN Y LOS CUANTOS DE LUZ (los fotones)
Cuando la luz choca con una superficie metálica sensible provoca un desprendimiento de electrones. En 1905, Alberto Einstein, examinando ese efecto (efecto fotoeléctrico), llegó a la conclusión de que las cosas sucedían como si la luz estuviese compuesta de pequeñas partículas (posteriormente denominadas cuantos).

albert einstein

Cada cuanto de luz provocaba la liberación de un electrón. Con ello se volvía de nuevo a los postulados de la teoría corpuscular. En el segundo decenio de nuestro siglo, Louis de Broglie propuso una arriesgada teoría: la luz posee una doble personalidad: unas veces se comporta como ondas y otras como partículas.

Broglie Louis

La teoría actualmente aceptada sugiere que la luz es algo aún más indefinido. Su comportamiento es regido por leyes estadísticas (mecánica ondulatoria). Para demostrarlo, podemos, por ejemplo, utilizar el experimento de Young sobre la formación de las interferencias, sólo que, en este caso, se emplea un haz luminoso de intensidad muy débil. Haciéndolo pasar a través de dos aberturas convenientemente situadas, se hace llegar la luz a una placa fotográfica.

En principio, hemos de esperar que cada cuanto de luz que llegue a la placa ennegrecerá una molécula de la emulsión que la recubre. Si el haz luminoso es lo suficientemente débil, al comienzo de la operación parece como si los electrones que llegan a la placa pudieran chocar con cualquier parte de ella; pero esto es algo muy fortuito.

A medida que pasa el tiempo, sin embargo, puede verse como las partes mas ennegredecidas van concentrándose gradualmente. Estas zonas son, precisamente, aquellas donde nan de producirse las franjas luminosas de interferencia. Según las modernas teorías, estas zonas son las que tienen mayor probabilidad de ser alcanzadas por la luz, de manera que sólo cuando el número de cuantos que llegan a la placa es suficientemente grande, las teorías estadísticas alcanzan el mismo resultado que las teorías clásicas.

Fuente Consultada:
FISICA I Resnick-Holliday
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Funcionamiento de Olla a Presión Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, “inventor del reloj de péndulo”, como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la “bomba al vacío”, al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el “digestor”, o “baño maría de rosca”, que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: “Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida”, y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

La vida será sofisticada y eficiente. ¿Cuáles serán los chiches de la nueva era? Valerie, el androide doméstico dotado de inteligencia artificial —y buenas piernas—, será uno. Nos dará una mano con la limpieza y llamará a la policía ante urgencias. Otra aliada de las tareas será Scooba, la aspiradora de iRobot, que con sólo apretar un botón fregará los pisos hasta los rincones más recónditos. Asimismo, la Polara de Whirlpool nos facilitará las cosas. Combina las cualidades de una cocina convencional y una heladera: será posible dejar un pollo en el horno para que se ase en el horario programado.

El gatito Cat de Philips habitará el hogar del mañana. Genera expresiones faciales— felicidad, sorpresa, enojo, tristeza— y será compinche de los chicos.

¿Qué habrá de nuevo a la hora de comer? “Se elegirán alimentos que hagan bien a la piel y al organismo. De todas formas, no faltará quien ingiera por elección o comodidad, comida chatarra mientras lea una revista de salud y se prometa: “mañana empiezo el régimen”, opina la cocinera Alicia Berger. “Además, la gente se preocupará por el origen y calidad de los alimentos, y se revalorizará lo casero”, revela.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaY al irse a la cama, será posible introducirse en una que soporta ataques terroristas o desastres naturales —de Quantum Sleeper— o portar un reloj pulsera Sleeptracker (foto izquierda) que vía sensores, detecta nuestro sueño superficial y justo ahí hace sonar la alarma para que el despertar sea lo menos fastidioso posible.

¿Y el sexo para cuándo? Mal que nos pese, cada vez tendremos menos ganas, tiempo y pasión. “Vamos hacia el sexo virtual por sobre el real al menos en las grandes ciudades del mundo”, confirma el doctor Juan Carlos Kusnetzoff, director del programa de Sexología Clínica del Hospital de Clínicas, quien adelanta que para levantar el ánimo —y algo más— se desarrollarán nuevas píldoras. “La industria farmacéutica desea lograrlo a toda costa”, agrega.

Ocio y tiempo libre para todos los gustos

En el campo de las nuevas tecnologías, la convergencia de la telefonía móvil y el hogar será un hecho. “El móvil podría permitir el acceso a los diferentes elementos que se quieran controlar, como un control remoto universal. Además se crearían nuevos sensores para avisarnos de situaciones que requieran nuestra atención y cámaras de seguridad para ver desde el teléfono lo que sucede en otro lugar”, cuenta Axel Meyer, argentino que desde el 2000 trabaja en el centro de diseño de Nokia Desing, en Finlandia. Y agrega “Los teléfonos con doble cámara ya permiten hacer videollamadas. Y también podremos ver la emoción del otro mientras miramos la misma película o un gol de nuestro equipo”, explica.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaEn robótica, los avances irán a gran velocidad. Ya se está desarrollando en la Universidad de Tokio la piel de robot que permitirá a estas criaturas adquirir el sentido del tacto. Y eso no es todo. Se podrá bailar con ellos. El Dance Partner Robot es la compañera de baile ideal. Predice los movimientos de su coequipper y no le pisa los pies!

Para momentos de ocio, el turismo estará preparado para el disfrute. Pero, ¿se podría pensar en la pérdida de vigencia del agente de viajes tradicional? “Internet agiliza muchos aspectos de la gestión. Hay un antes y un después en la forma de hacer turismo, pero, ¿quién se atreve a viajar con su familia a destinos exóticos o países desconocidos sin un asesoramiento de confianza?”, se pregunta Ricardo Sánchez Sañudo, director de la revista Tiempo de Aventura, quien sostiene que ante la coyuntura mundial —terrorismo, inseguridad y desastres climáticos, entre otros—, la Argentina crecerá como destino. “Cuanto, más expuesto a estas amenazas esté el resto del mundo, tendremos ventajas comparativas que podremos aprovechar al máximo si conseguimos mantener esas amenazas fuera de nuestras fronteras, o al menos, razonablemente controladas”, manifiesta. Por otra parte, la vida al aire libre será la estrella. “Vida sana, naturaleza viva y desarrollo sustentable son principios insoslayables cuando se mira hacia adelante, y tanto deporte como turismo aventura son dos de sus mejores herramientas”, analiza.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaLos amantes del deporte encontrarán aliados perfectos para seguir ganando. El de los tenistas es la raqueta Magnetic Speed de Fischer, que permite mejores movimientos y mayor velocidad en los tiros. Los que prefieren la música se sorprenderán con instrumentos como el Hand Roll Piano de Yama-no Music, con teclado de silicona flexible.

Trasladarnos será más simple, cómodo y ecológico. Y ya hay algunos adelantos. Tweel de Michelin es una llanta sin aire. Así es que… la despedirse de las gomas pinchadas!

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Por otro lado, acaso debido al tránsito en las ciudades, los transportes individuales serán protagonistas. Como la bicicleta Shift, ideal para los chicos. Les permite adquirir estabilidad gradual sin necesidad de las dos rueditas.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Futuro saludable:

Que la salud avanza a pasos agigantados, no es una novedad. La noticia es que estará al alcance de todos en los próximos años.

Las cirugías estéticas, se popularizarán y masificarán. La lipoescultura será la más pedida, según el doctor Raúl Banegas, cirujano plástico, miembro titular de la Sociedad de Cirugía Plástica de Buenos Aires, debido a que “La demanda social de ser cada vez más lindos, delgados y jóvenes, se acrecienta”. Por otro lado, serán comunes las inyecciones de líquidos —fosfatidil colina— tendientes a disolver la grasa corporal, sin cirugía. En cuanto a rellenos, la toxina botulínica es irremplazable aunque sí se espera que se sintetice de manera tal que dure más tiempo —hoy, de 3 a 6 meses—.

“En cuanto a rellenos definitivos habrá infinidad de sintéticos. Lo que sí parece ser prometedor, aún en fase de investigación, es el cultivo del propio colágeno. En sólo unos meses se podrían obtener en laboratorio, varias jeringas, lo que descartaría toda posibilidad de reacción”, adelanta.

En Neurociencias, será posible el neuromarketing a partir de tomografías PET —por emisión de positrones—, aunque “en lo inmediato son técnicas caras y requieren de un sofisticado análisis de los datos”, anticipa el doctor Facundo Manes, director del Instituto de Neurología Cognitiva —INECO—. En lo que a neuroplastieidad se refiere, ya no diremos más aquello de que “neurona que se muere, se pierde”, viejo postulado que paralizó casi completamente durante décadas la investigación en esta área, según el especialista. Y el conocer acerca de qué pasa en la cabeza de un adicto u obeso permitirá complementar con medicamentos aquello que químicamente requiera cada cerebro.

“Conocer las bases cerebrales de un trastorno neuropsiquiátrico ayuda a localizar los neurotransmisores —mensajeros entre las neuronas— involucrados en una enfermedad; de esta manera se podría investigar una posible solución farmacológica a esa determinada condición médica”, comenta. En el campo de la reproducción asistida, las novedades son infinitas. “Cada vez se podrán hacer más y mejores cosas en pos de mejorar las chances de tener un chico en brazos y no un embarazo que no pudo ser”, adelanta la doctora Ester Polak de Fried, presidente de CER Instituto Médico, directora del departamento de medicina reproductiva de la institución.

“Los estudios genéticos, tanto de gametas como de óvulos fertilizados —preembriones—, que permiten transferir al útero materno únicamente los sanos, se convertirán en técnicas habituales para aquellas mujeres que sufren abortos a repetición, por ejemplo. En el área de la biología molecular, será posible encontrar marcadores génicos —detectan chances de reproducción—, tanto en los óvulos como en los espermatozoides para poder elegir los que tienen capacidades evolutivas, y así disminuir la cantidad de óvulos a poner a fertilizar y la problemática de tener gran cantidad de embriones criopreservados”, especifica quien es officer de la International Federation of Fertility Societies —IFFS—, que nuclea a 54 países.

Construcciòn, arte y moda

Uno de los cambios en lo que respecta a la construcción, al menos en Argentina, será la creciente conciencia ecológica y de cuidado del medio ambiente. “El futuro de La arquitectura está definido en su responsabilidad ecológica tanto con eL medio ambiente como con el medio social. No hay que explicar de qué manera el proyecto arquitectónico influye en el medio ambiente. La decisión de su tecnología y su consecuencia en el futuro mantenimiento conforman una huella ecológica que deberá ser cada vez más analizada y respetada”, analiza el arquitecto Flavio Janches. En cuanto a los materiales, “al menos en nuestro país, el ladrillo y la piedra, el hormigón y el revoque son materiales que no creo que se dejen de utilizar”, opina. La moda tendrá sus cambios, aunque más bien tendrán que ver con el cosechar la siembra, al menos para los diseñadores argentinos. “La gente va a reivindicar el diseño y pagarlo por lo que vale. Hoy por hoy, no existe esa conciencia, como en Estados Unidos, Europa o Japón”, asegura la diseñadora Jessica Trosman. En cuanto al arte, en el futuro abandonará un poco los museos y las galerías para darse una vuelta por las calles. Uno de los referentes de este movimiento es Julian Beever, artista inglés conocido por su trabajo en 3D, en veredas y pavimentos de Inglaterra, Francia, Alemania, Australia, Estados Unidos y Bélgica.

Y mientras se espera el futuro que se viene, a brindar por este 2006 que sí es inminente!

Fuente Consultada: Revista NUEVA Por Laura Zavoyovski (31-12-2005)
Ir a su sitio web

Principio de Bernoulli Teorema de la Hidrodinamica Resumen Teoria

Principio de Bernoulli – Teorema de la Hidrodinámica

INTRODUCCIÓN GENERAL:
Se denominan fluidos aquellos cuerpos cuyas moléculas tienen entre sí poca o ninguna coherencia y toman la forma de la vasija que los contiene, como los líquidos y los gases. Muchos de dichos cuerpos fluyen con bastante facilidad y raramente permanecen en reposo. La rama de la ciencia que trata de los fluidos en movimiento se conoce con el nombre de Hidrodinámica.

Como ejemplo, se puede citar el agua que circula por una tubería, o la corriente de aire que se origina sobre las alas de un avión en vuelo. El comportamiento de un fluido en movimiento es, naturalmente, más complicado que el de un fluido en reposo.

En Hidrostática (rama que trata de los fluidos en reposo), lo más importante de conocer, acerca del fluido, es la presión que actúa sobre el mismo. Un buzo experimenta tanto mayor aumento de presión cuanto mayor es la profundidad a la que está sumergido en el agua; la presión que soporta a una determinada profundidad es, simplemente, la suma del peso del agua por encima de él, y la presión del aire sobre la superficie del agua. Cuando el agua se pone en movimiento, la presión se modifica.

Es casi imposible predecir cuál es la presión y la velocidad del agua, por lo que el estudio de los fluidos en movimiento es muchísimo más complicado que el de los fluidos en reposo. Un buzo que se mueve a lo largo, y en el mismo sentido que una corriente submarina, probablemente no nota que la presión alrededor de él cambia. Pero, de hecho, al ponerse el agua en movimiento, la presión disminuye y, cuanto mayor es la velocidad, mayor es la caída de presión. Esto, en principio, sorprende, pues parece que un movimiento rápido ha de ejercer una presión mayor que un movimiento lento.

El hecho real, totalmente opuesto, fue primeramente expresado por el matemático suizo Daniel Bernoulli (1700-1782). Si un fluido comienza a moverse, originando una corriente continua, debe existir alguna causa que origine dicho movimiento. Este algo es una presión. Una vez el fluido en movimiento, la presión cambia, bien sea aumentando o disminuyendo. Supongamos que aumenta. Al aumentar la presión, crece la velocidad del fluido, que origina un nuevo aumento en la presión; este aumento hace crecer el valor de la velocidad, y así sucesivamente.

PRINCIPIO DE LA HIDRODINÁMICA: EXPLICACIÓN RESUMIDA DE LA TEORÍA:

A continuación estudiaremos la circulación de fluidos incompresibles, de manera que podremos explicar fenómenos tan distintos como el vuelo de un avión o la circulación del humo por una chimenea. El estudio de la dinámica de los fluidos fue bautizada hidrodinámica por el físico suizo Daniel Bernoulli, quien en 1738 encontró la relación fundamental entre la presión, la altura y la velocidad de un fluido ideal.

El teorema de Bernoulli demuestra que estas variables no pueden modificarse independientemente una de la otra, sino que están determinadas por la energía mecánica del sistema.

Supongamos que un fluido ideal circula por una cañería como la que muestra la figura. Concentremos nuestra atención en una pequeña porción de fluido V (coloreada con celeste): al cabo de cierto intervalo de tiempo Dt (delta t) , el fluido ocupará una nueva posición (coloreada con rojo) dentro de la Al cañería. ¿Cuál es la fuerza “exterior” a la porción V que la impulsa por la cañería?

Sobre el extremo inferior de esa porción, el fluido “que viene de atrás” ejerce una fuerza que, en términos de la presiónp1, puede expresarse corno p1 . A1, y está aplicada en el sentido del flujo. Análogamente, en el extremo superior, el fluido “que está adelante” ejerce una fuerza sobre la porción V que puede expresarse como P2 . A2, y está aplicada en sentido contrario al flujo. Es decir que el trabajo (T) de las fuerzas no conservativas que están actuando sobre la porción de fluido puede expresarse en la forma:

T=F1 . Dx1– F2. Dx2 = p1. A1. Dx1-p2. A2. Ax2

Si tenemos en cuenta que el fluido es ideal, el volumen que pasa por el punto 1 en un tiempo Dt (delta t) es el mismo que pasa por el punto 2 en el mismo intervalo de tiempo (conservación de caudal). Por lo tanto:

V=A1 . Dx1= A2. Dx2 entonces T= p1 . V – p2. V

El trabajo del fluido sobre esta porción particular se “invierte” en cambiar la velocidad del fluido y en levantar el agua en contra de la fuerza gravitatoria. En otras palabras, el trabajo de las fuerzas no conservativas que actúan sobre la porción del fluido es igual a la variación de su energía mecánica Tenemos entonces que:

T = DEcinética + AEpotencial = (Ec2 — Ec1) + (Ep2 — Ep1)

p1 . V — P2 . V = (1/2 .m . V2² — 1/2 . m. V1²) + (m . g . h2 — m . g . h1)

Considerando que la densidad del fluido está dada por d=m/V podemos acomodar la expresión anterior para demostrar que:

P1 + 1/2 . d. V1² + d . g. h1= P2 + 1/2 . d. V2² + d . g . h2

Noten que, como los puntos 1 y 2 son puntos cualesquiera dentro de la tubería, Bernoulli pudo demostrar que la presión, la velocidad y la altura de un fluido que circula varian siempre manteniendo una cierta cantidad constante, dada por:

p + 1/2. d . V² + d. g. h = constante

Veremos la cantidad de aplicaciones que pueden explicarse gracias a este teorema.

Fluido humano. Una multitud de espectadores pretende salir de una gran sala de proyecciones al término de la función de cine. El salón es muy ancho, pero tiene abierta al fondo sólo una pequeña puerta que franquea el paso a una galería estrecha que conduce hasta la calle. La gente, impaciente dentro de la sala, se agIomera contra la puerta, abriéndose paso a empujones y codazos. La velocidad con que avanza este “fluido humano” antes de cruzar la puerta es pequeña y la presión es grande. Cuando las personas acceden a la galería, el tránsito se hace más rápido y la presión se alivia. Si bien este fluido no es ideal, puesto que es compresible y viscoso (incluso podría ser turbulento), constituye un buen modelo de circulación dentro de un tubo que se estrecha. Observamos que en la zona angosta la velocidad de la corriente es mayor y la presión es menor.

APLICACIONES:

EL TEOREMA DE TORRICELLI

Consideremos un depósito ancho con un tubo de desagote angosto como el de la figura. Si destapamos el caño, el agua circula. ¿Con qué velocidad? ¿Cuál será el caudal? En A y en B la presión es la atmosférica PA=PB=Patm. Como el diámetro del depósito es muy grande respecto del diámetro del caño, la velocidad con que desciende la superficie libre del agua del depósito es muy lenta comparada con la velocidad de salida, por lo tanto podemos considerarla igual a cero, VA = 0

La ecuación de Bernoulli queda entonces:

d. g. hA + pA= 1/2 . d. hB + pB

entonces es:

g . hA = 1/2 . vB² + g. hB de donde VB²= 2. .g . (hA-hB)

de donde se deduce que:

VB² = 2. g(hA – hB)

Este resultado que se puede deducir de la ecuación de Bernoulli, se conoce como el teorema de Torricelli, quien lo enunció casi un siglo antes de que Bernoulli realizara sus estudios hidrodinámicos. La velocidad con que sale el agua por el desagote es la misma que hubiera adquirido en caída libre desde una altura hA, lo que no debería sorprendernos, ya que ejemplifica la transformación de la energía potencial del líquido en energía cinética.

EL GOL OLÍMPICO

A: Una pelota que rota sobre si misma arrastra consigo una fina capa de aire por efecto dei rozamiento.

B: Cuando una pelota se traslada, el flujo de aire es en sentido contrario al movimiento de la pelota.

C: Si la pelota, a la vez que avanza en el sentido del lanzamiento, gira sobre sí misma, se superponen los mapas de las situaciones A y B. El mapa de líneas de corrientes resulta de sumar en cada punto los vectores VA y VB. En consecuencia, a un lado de la pelota, los módulos de las velocidades se suman y, al otro, se restan. La velocidad del aire respecto de la pelota es mayor de un lado que del otro.

D: En la región de mayor velocidad, la presión (de acuerdo con el teorema de Bernoulli) resulta menor que la que hay en la región de menor velocidad. Por consiguiente, aparece una fuerza de una zona hacia la otra, que desvía la pelota de su trayectoria. Éste es el secreto del gol olímpico.

EL AERÓGRAFO

Las pistolas pulverizadoras de pintura funcionan con aire comprimido. Se dispara aire a gran velocidad por un tubo fino, justo por encima de otro tubito sumergido en un depósito de pintura. De acuerdo con el teorema de Bernoulli, se crea una zona de baja presión sobre el tubo de suministro de pintura y, en consecuencia, sube un chorro que se fragmenta en pequeñas gotas en forma de fina niebla.

FUERZA DE SUSTENTACIÓN: Cualquier cuerpo que se mueve a través del aire experimenta una fuerza que proviene de la resistencia del aire. Ésta puede dividirse en dos componentes que forman entre sí un ángulo recto. A uno se lo llama sustentación y se dirige verticalmente hacia arriba. El otro, llamado resistencia, actúa horizontalmente y en sentido opuesto a la dirección de desplazamiento del cuerpo. La fuerza de sustentación se opone al peso y la resistencia se opone al movimiento del
cuerpo. Para que un cuerpo pueda volar la fuerza de sustentación debe superar al peso y la resistencia debe ser tan reducida que no impida el movimiento.

Para obtener un resultado óptimo necesitamos un cuerpo con una alta relación entre la fuerza de sustentación y la resistencia. El índice más elevado se obtiene mediante un cuerpo diseñado especialmente que se denomina “perfil aerodinámico”. Por razones prácticas no es posible obtener un perfil aerodinámico perfecto en un aeroplano pero las alas se diseñan siempre de modo que suministren la sustentación que sostiene a la máquina en el aire. En un corte transversal un perfil aerodinámico exhibe una nariz redondeada, una superficie superior fuertemente curvada, la inferior más achatada y una cola aguzada.

El perfil se inclina formando un ligero ángulo con la dirección del flujo de aire. La fuerza ascendente se obtiene de dos modos: por encima del perfil aerodinámico el aire se mueve más rápido a causa de su forma curva. Por el principio descubierto por Bernoulli y resumido en una ecuación matemática, la presión de un fluido disminuye en relación con el aumento de su velocidad y viceversa.

De ese modo, la presión del aire que se mueve en la parte superior del perfil decrece creando una especie de succión que provoca el ascenso del perfil aerodinámico. Por otra parte el aire que fluye bajo el perfil angulado aminora su velocidad de manera que la presión aumenta. Esta acción eleva el perfil aerodinámico, dándole mayor poder de sustentación. La fuerza de sustentación total depende del tipo de perfil, de la superficie de las alas, de la velocidad del flujo y de la densidad del aire.

La fuerza ascensional disminuye con la altitud, donde el aire es menos denso, y aumenta con el cuadrado de la velocidad del aeroplano y también con la mayor superficie de las alas. El ángulo que forma el perfil aerodinámico con el flujo de aire se llama ángulo de incidencia. A mayor ángulo, mayor fuerza ascensorial hasta llegar a un punto crítico, después del cual la fuerza ascensorial diminuye bruscamente. El flujo de aire que hasta el momento había sido suave, se descompone repentinamente en forma de remolinos. Cuando ello ocurre se dice que el avión se ha desacelerado, y de ser así el avión comienza a caer, pues las alas ya no lo pueden sostener. Es muy peligroso en caso que al avión se encuentre cerca de la tierra.

diagrama fuerza ascensorial

El diagrama muestra una sección en corte del ala de un aeroplano, según un diseño aerodinámico. El aire fluye por encima y por debajo del ala, pero fluye más rápido por encima de la parte superior porque está más curvada, presentando un largo mayor. El flujo de aire más rápido ejerce menos presión; además, se produce otra presión hacia arriba, resultante de la menor velocidad del aire por debajo del ala, que la proveerá de fuerza ascensional. Ésta es la base del vuelo del aeroplano.

Fuente Consultada: Enciclopedia NATURCIENCIA Tomo 1

Principio de Arquimedes Teorema de la Hidroestática Empuje de Fluidos

Principio de Arquímedes Teorema de la Hidroestática

El teorema fundamental de la hidrostática

¿Por qué las paredes de un dique van aumentando su espesor hacia el fondo del lago? ¿Por qué aparecen las várices en las piernas?

Es un hecho experimental conocido que la presión en el seno de un líquido aumenta con la profundidad. Busquemos una expresión matemática que nos permita calcularla. Para ello, consideremos una superficie imaginaria horizontal S, ubicada a una profundidad h como se muestra en la figura de la derecha.

La presión que ejerce la columna de líquido sobre la superficie amarilla será:

p = Peso del líquido/Area de la base

Con matemática se escribe: p = P/S = (d . V)/S=(d . S . h)/S= d . h (porque la S se simplifican)

donde p es el peso específico del líquido y V es el volumen de la columna de fluido que descansa sobre la superficie S.

Es decir que la presión que ejerce un líquido en reposo depende del peso específico (p) del líquido y de la distancia (h) a la superficie libre de éste.

Si ahora consideramos dos puntos A y B a diferentes profundidades de una columna de líquido en equilibrio, el mismo razonamiento nos permite afirmar que la diferencia de presión será:

PA —PB = p . hA— d . hB

 Este resultado constituye el llamado teorema fundamental de la hidrostática:

La diferencia de presión entre dos puntos dentro de una misma masa líquida es el producto del peso específico del líquido por la distancia vertical que los separa.

Ésta es la razón por la cual dos puntos de un fluido a igual profundidad estarán a igual presión. Por el contrario, si la presión en ambos puntos no fuera la misma, existiría una fuerza horizontal desequilibrada y el líquido fluiría hasta hacer que la presión se igualara, alcanzando una situación de equilibrio.

Hasta aquí sólo hemos encontrado la expresión de la presión que ejerce el líquido sobre un cuerpo —imaginario o no— sumergido en una determinada profundidad h. Ahora bien, ¿cuál es la presión total ejercida en el cuerpo? Si tenemos en cuenta que, probablemente, por encima del líquido hay aire (que también es un fluido), podemos afirmar que la presión total ejercida sobre el cuerpo es debida a la presión de la columna del líquido más la presión que ejerce el aire sobre la columna. Es decir:

P = Paire + Plíquido = Patmosférica +  d . h

Este resultado tiene generalidad y puede ser deducido del teorema fundamental de la hidrostática. Veamos cómo. Si consideramos que el punto B se encuentra exactamente en la superficie del líquido, la presión en A es:

PA= PB+ d . Ah = Psuperficie + P. (hA-hB) = Patmosférica + d . h

Los vasos comunicantes son recipientes comunicados entre sí, generalmente por su base. No importa cuál sea la forma y el tamaño de los recipientes; en todos ellos, el líquido alcanza la misma altura.

Cuando tenemos un recipiente vertical conteniendo un liquido y le hacemos perforaciones en sus paredes, las emisiones del liquido de los agujeros de la base tendrán mayor alcance que las emisiones de arriba, ya que a mayor profundidad hay mayor presión.

EL EMPUJE: PRINCIPIO DE ARQUIMEDES  (Ver Su Biografía)

Resulta evidente que cada vez que un cuerpo se sumerge en un líquido es empujado de alguna manera por el fluido. A veces esa fuerza es capaz de sacarlo a flote y otras sólo logra provocar una aparente pérdida de peso. Pero, ¿cuál es el origen de esa fuerza de empuje? ¿De qué depende su intensidad?

Sabemos que la presión hidrostática aumenta con la profundidad y conocemos también que se manifiesta mediante fuerzas perpendiculares a las superficies sólidas que contacta. Esas fuerzas no sólo se ejercen sobre las paredes del contenedor del líquido sino también sobre las paredes de cualquier cuerpo sumergido en él.

Distribución de las fuerzas sobre un cuerpo sumergido

Imaginemos diferentes cuerpos sumergidos en agua y representemos la distribución de fuerzas sobre sus superficies teniendo en cuenta el teorema general de la hidrostática. La simetría de la distribución de las fuerzas permite deducir que la resultante de todas ellas en la dirección horizontal será cero. Pero en la dirección vertical las fuerzas no se compensan: sobre la parte superior de los cuerpos actúa una fuerza neta hacia abajo, mientras que sobre la parte inferior, una fuerza neta hacia arriba. Como la presión crece con la profundidad, resulta más intensa la fuerza sobre la superficie inferior. Concluimos entonces que: sobre el cuerpo actúa una resultante vertical hacia arriba que llamamos empuje.

¿Cuál es el valor de dicho empuje?

Tomemos el caso del cubo: la fuerza es el peso de la columna de agua ubicada por arriba de la cara superior (de altura h1). Análogamente, F2 corresponde al peso de la columna que va hasta la cara inferior del cubo (h2). El empuje resulta ser la diferencia de peso entre estas dos columnas, es decir el peso de una columna de líquido idéntica en volumen al cubo sumergido. Concluimos entonces que el módulo del empuje es igual al peso del líquido desplazado por el cuerpo sumergido.

Con un ejercicio de abstracción podremos generalizar este concepto para un cuerpo cualquiera. Concentremos nuestra atención en una porción de agua en reposo dentro de una pileta llena. ¿Por qué nuestra porción de agua no cae al fondo de la pileta bajo la acción de su propio peso? Evidentemente su entorno la está sosteniendo ejerciéndole una fuerza equilibrante hacia arriba igual a su propio peso (el empuje).

Ahora imaginemos que “sacamos” nuestra porción de agua para hacerle lugar a un cuerpo sólido que ocupa exactamente el mismo volumen. El entorno no se ha modificado en absoluto, por lo tanto, ejercerá sobre el cuerpo intruso la misma fuerza que recibía la porción de agua desalojada. Es decir:

Un cuerpo sumergido recibe un empuje vertical y hacia arriba igual al peso del volumen de líquido desplazado.

E = Peso del líquido desplazado = dlíq . g . Vliq desplazado = dliq . g . Vcuerpo

Es importante señalar que es el volumen del cuerpo, y no su peso, lo que determina el empuje cuando está totalmente sumergido. Un cuerpo grande sumergido recibirá un gran empuje; un cuerpo pequeño, un empuje pequeño.

Como hace un barco para flotar?
Pues bien, el mismo está diseñado de tal manera para que la parte sumergida  desplace un volumen de agua igual al peso del barco, a la vez, el barco es hueco (no macizo), por lo que se logra una densidad media pequeña. En el caso de los submarinos, tienen un sistema que le permite incorporar agua y de esta manera consiguen regular a sus necesidades la densidad media de la nave.

Él agua, el alcohol y el mercurio son líquidos, pero el principio de Arquímedes se aplica a todos los fluidos, es decir, también a los gases. Los gases fluidos son mucho menos densos y producen empujes mucho menores. Con todo, los objetos pesan menos en el aire de lo que pesarían en el vacío. Un globo lleno de hidrógeno puede flotar en el aire porque su peso —que tiende a arrastrarlo hacia la Tierra— está exactamente equilibrado por el empuje del aire. Este empuje es también igual al peso de aire desplazado.

El conocimiento del principio de Arquímedes es de gran importancia para todo aquél que se ocupe del proyecto de barcos y submarinos, cuyo empuje debe ser calculado. Es absolutamente esencial saber cuánto se hundirá un barco al ser botado, o cuál será el empuje de un submarino.

LA FLOTABILIDAD Y EL PRINCIPIO DE Arquímedes. El objeto pesa menos en agua que en aire. La pérdida aparente de peso se debe al empuje del agua sobre el objeto. Pesa aún menos en agua salada. Como el agua salada es más pesada que el agua dulce, el peso del líquido desplazado es mayor. El empuje sobre el objeto es mayor porque es igual al peso de agua salada desalojada. Debido a este mayor empuje es más fácil flotar en agua salada que en agua dulce. Cuanto más denso el líquido, tanto más fácil será flotar en él.

EL PROBLEMA DE LA CORONA DEL REY

El rey Hierón le entregó 2,5 kg de oro a su joyero para la construcción de la corona real. Si bien ése fue el peso de la corona terminada, el rey sospechó que el artesano lo había estafado sustituyendo oro por plata en el oculto interior de la corona. Le encomendó entonces a Arquímedes que dilucidara la cuestión sin dañar la corona.

Con sólo tres experiencias el sabio pudo determinar que al monarca le habían robado casi un kilo de oro. Veamos cómo lo hizo.

En primer lugar, Arquímedes sumergió una barra de medio kilo de oro puro y comprobó que desplazaba 25,9 cm3. Por lo tanto, el peso específico del oro es:

Poro = 500 gr/25.3 cm3 =19.3 gr/cm3 

Si el joyero hubiera hecho las cosas como le habían indicado, el volumen de líquido desplazado por la corona real, que pesaba 2,5 kilogramos, debería haber sido:

Vcorona = 2.500 gr/19.3 gr/cm3=129.5 cm3

A continuación, sumergió la corona real y midió que el volumen de agua desplazado era de 166 cm3, o sea, mayor del esperado. ¡Hierón había sido estafado! ¿En cuánto? Para saber qué cantidad de oro había sido reemplazado por plata, Arquímedes repitió la primera experiencia sumergiendo una barra de un kilo de plata para conocer su peso específico. Como el volumen desplazado resultó 95,2 cm3, se tiene que:

Pplata=1000 gr/95.2 gr/cm3=10.5 gr/cm3

Sabemos que el peso total de la corona es 2.500 gr. (el joyero tuvo la precaución de que así fuera) y su volumen total, de 166 cm3. Entonces:

Vcorona=Voro+Vplata=166 cm3

Vplata=166-Voro

Pcorona=Poro+Pplata=2500 gr.

Si reescribimos la última ecuación en función del peso específico y el volumen, nos queda que:

19.3 gr/cm3 . Voro + 10.5 gr/cm3 . Vplata = 2500 gr

Tenemos dos ecuaciones con dos incógnitas (Voro y Vplata). Sustituyendo una ecuación con la otra, se tiene que:

19,3 gr/cm3. Voro + 10.5 gr/cm3. (166 cm3-Voro) = 2.500 g

de donde se despeja la incógnita:

Voro =86cm3

con lo que se deduce que:

Poro =Poro Voro = 19,3 gr/cm3 .  86 cm3 = 1.660 gr

Pplata=Pcorona – Poro =2.500gr -1.660 gr =840 gr

De esta manera, Arquímedes pudo comprobar que al rey le habían cambiado 840 gr. de oro por plata. Cuenta la leyenda que el joyero no pudo disfrutar del oro mal habido.

 

Teoría Especial de la Relatividad Explicacion Sencilla Albert Einstein

Teoría Especial de la Relatividad
Explicación Sencilla

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

 

Pilas y Baterias Acumuladores de energía electrica Funcionamiento

Alessandro Giuseppe Antonio Anastasio Volta, físico italiano, hijo de una madre procedente de la nobleza y de un padre de la alta burguesía, recibió una educación básica y media de características humanista, pero al llegar a la enseñanza superior optó por una formación científica. En el año 1774, es nombrado profesor de física de la Escuela Real de Como. Justamente, un año después Volta realiza su primer invento de un aparato relacionado con la electricidad.

Con dos discos metálicos, separados por un conductor húmedo, pero unidos con un circuito exterior logra, por primera vez, producir corriente eléctrica continua, se inventa el electróforo perpetuo, un dispositivo que una vez que se encuentra cargado puede transferir electricidad a otros objetos.

Entre los años 1776 y 1778 se dedica a la química y descubre y aísla el gas de metano. Un año más tarde, en 1779, es nombrado profesor titular de la cátedra de física experimental en la Universidad de Pavia. Voltio, la unidad de potencia eléctrica, se denomina así en honor a este portentoso –en el buen sentido- de las ciencias. Sus trabajos fueron publicados en cinco volúmenes en el año 1816, en Florencia. Sus últimos años de vida los pasó en su hacienda en Camnago cerca de Como, donde fallece el 5 de marzo de 1827.

El fundamento de las pilas y acumuladores es la transformación de la energía química en eléctrica, mediante reacciones de oxidación-reducción producidas en los electrodos, que generan una corriente de electrones.

Cuando se unen mediante un hilo metálico dos cuerpos entre los cuales existe una diferencia de potencial, se produce un paso de corriente que provoca la disminución gradual de dicha diferencia. Al final, cuando el potencial se iguala, el paso de corriente eléctrica cesa. Para que la corriente siga circulando debe mantenerse constante la diferencia de potencial.

En 1800, Alejandro Volta inventó un aparato generador de corriente. La pila de Volta (que él llamó «aparato electromotor de columna»> estaba constituida por un conjunto de pares de discos, unos de cobre y otros de cinc, con un disco de tela impregnada en agua salada —o en cualquier otro líquido conductor— intercalado entre dos pares sucesivos. Se trataba de un dispositivo muy cómodo y manejable, que funcionaba de modo continuo, y que posibilitó la aparición de nuevos descubrimientos sobre electricidad.

esquema pila de volta

Funcionamiento de una pila electroquímica

El funcionamiento de una pila es sencillo, consiste básicamente en introducir electrones en uno de los extremos de un alambre y extraerlos por el otro. La circulación de los electrones a lo largo del alambre constituye la corriente eléctrica. Para que se produzca, hay que conectar cada extremo del alambre a una placa o varilla metálica sumergida en un electrolito que suele ser una solución química de algún compuesto iónico.

Cuando ese compuesto se disuelve, las moléculas se dividen en iones positivos y negativos, que se mantienen separados entre sí por efecto de las moléculas del líquido. El electrolito que utilizó Volta era ácido sulfúrico; cada una de sus moléculas, al disolverse en agua, se descompone en dos protones H+ (iones positivos) y un ion sulfatoSO4– (ion negativo).

Las varillas metálicas de cobre y cinc constituyen los electrodos, que deben ser sumergidos en el electrolito sin que lleguen a entrar en contacto. La placa de cobre es el electrodo positivo o ánodo y la placa de cinc el electrodo negativo o cátodo.

Al reaccionar el electrolito con las varillas se produce una transmisión de electrones, que han sido extraídos de la placa de cinc, hacia la placa de cobre, con lo que los átomos de cinc son oxidados e incorporados a la disolución, según la reacción:

Zn —> Zn2++ 2e

Esto ocurre así y no al revés, del cobre al cinc, porque los átomos de cinc tienen más tendencia que los de cobre a ceder electrones.

En la varilla de cobre se produce una reducción de los iones hidrógeno H+ de la disolución, ya que los electrones liberados por los átomos de cinc recorren el hilo conductor hacia la placa de cobre y son captados por los H+, que se convierten en átomos de hidrógeno y escapan en forma de gas. Estos electrones en movimiento son los que originan la corriente eléctrica.

Por su parte, los iones SO4 reaccionan con los cationes Zn2+ y se convierten en moléculas de sulfato de cinc.

2 H~+2e —> H2

Zn2+ + SO42– —> ZnSO4

Cuando se corta la conexión exterior entre las placas, los electrones no pueden desplazarse a lo largo del hilo de una placa a la otra, con lo que se interrumpe la reacción.

El dispositivo funciona mientras existan átomos de cinc para formar el sulfato correspondiente. Cuando la placa de cinc se ha desintegrado por completo ya no puede producirse la reacción, por lo que la pila ya no tiene uso. Por este motivo, las pilas de este tipo reciben el nombre de pilas primarias.

Baterías

Las pilas secundarias o acumuladores son aquellas que pueden recargarse, es decir pueden reiniciar el proceso mediante el aporte de energía de una fuente exterior normal mente un generador, que hace que los compuestos químicos se transformen en los compuestos de partida, al hacer pasar corriente a través de ellos en sentido opuesto

Un acumulador es, por tanto, un aparato capaz de retener cierta cantidad de energía en su interior, suministrada externamente, para emplearla cuando la necesite.

Así, una batería está formada por varios acumuladores, y puede ser ácida o calina en función’de la naturaleza del electrolito. Por ejemplo, las baterías de los coches son ácidas, porque contienen un electrolito de ácido sulfúrico en el que se sumergen una placa de plomo metálico y otra de dióxido de plomo. Las reacciones en este caso son las siguientes:

H2SO4 —> 2H+ + SQ42-

Cátodo:……………   Pb + S042 —->  PbSO4 + 2e

Ánodo: …….. PbO2 + S042- +4 H30+ +  2 e- —>  PbSO4 + 6 H20

Cuando se agota el plomo o el dióxido de plomo la batería está gastada y para recargarla se hace pasar una corriente eléctrica de la placa positiva a la negativa mediante un alternador o dinamo, de manera que el sulfato de plomo se vuelve a des componer en plomo en la placa negativa, y en la positiva en dióxido de plomo

En las baterías alcalinas el electrolito suele ser hidróxido potásico, y las placas son habitualmente, de níquel y de hierro.

Pilas de combustible

Para solucionar el problema del agotamiento definitivo de las baterías y acumuladores, Francis Bacon inventó en 1959 la llamada pila de combustible, en la que las sustancias que generan la corriente eléctrica no están contenidas en la propia pila, sino que se van aportando a medida que se necesitan.

La primera pila de combustible, también llamada pila Bacon, era alimentada por hidrógeno y oxígeno gaseosos. Contiene un electrolito de hidróxido potásico disuelto en agua, entre dos placas metálicas porosas que no permiten el paso del electrolito a través de ellas, pero sí su penetración parcial.

Uno de los electrodos es alimentado con el gas hidrógeno y el otro con el oxígeno, a presiones determinadas para que sólo pueda penetrar una parte de la placa. Es a través de los poros de los metales de las placas por donde entran en contacto los gases con el electrolito. En la placa negativa se produce una combinación de las moléculas de hidrógeno con los iones hidroxilo del electrolito, suministrando electrones. En la placa positiva los átomos de oxígeno capturan los electrones y se combinan con moléculas de agua para formar iones hidroxilo, que se disuelven en el electrolito.

Las reacciones continúan y la corriente eléctrica se mantiene mientras los electrodos estén conectados exteriormente y se produzca el aporte de oxígeno e hidrógeno. A veces es necesario utilizar un metal que actúe como catalizador de la reacción. El idóneo es el platino, pero debido a su elevado coste suele emplearse níquel.

Este tipo de pilas son ideales para el suministro de energía en estaciones espaciales o submarinas, por ejemplo, donde no es fácil el montaje de equipos generadores de tipo convencional. Sin embargo, no son válidas para sustituir a la batería de los automóviles, ya que se necesita un equipo auxiliar que caliente la pila y elimine el exceso de agua —en el caso de la pila Bacon— o de dióxido de carbono —en otros tipos similares que emplean carbonatos como electrolitos.

ALGO MAS..

LA CORRIENTE ELÉCTRICA NO ES ALMACENABLE
La electricidad usual nos llega por cables desde la central eléctrica. Pero la corriente no puede almacenarse en “tanques” del mismo modo que el agua, pues no es más que el movimiento de los electrones bajo la influencia de una “presión” o diferencia de tensión, o “voltaje”, o “fuerza electromotriz”. Por eso, cuando necesitamos accionar pequeños aparatos, como linternas o radiorreceptores no conectados con la central eléctrica, empleamos pilas secas y acumuladores. En éstos la electricidad se produce químicamente.

LA PILA DE VOLTA
Si colocamos dos placas de metales diferentes en un recipiente con agua acidulada (puede ser una placa metálica y otra de carbono), el ácido ataca al metal y se produce una serie de complicadas reacciones químicas. El ácido toma átomos de una de las placas metálicas y en cambio libera ios átomos de hidrógeno que ¡o constituían., pero los electrones del hidrógeno quedan en la placa, que por eso se sobrecarga negativamente.

Los átomos de hidrógeno sin electrón (iones hidrógeno) recuperan sus electrones a costa de la segunda placa, que entonces queda cargada positivamente. En conjunto sucede como si los electrones de la segunda placa pasaran a !a primera. Si están unidas a un circuito exterior, circulará una corriente eléctrica de la primera a la segunda.

Hay un inconveniente en este fenómeno. Los átomos de hidrógeno (ya completos) se adhieren a la segunda placa formando una capa aislante y en cuestión de segundos impiden el acercamiento de nuevos iones, deteniéndose completamente la reacción. Para evitarlo, en la práctica se agrega una sustancia química que se combina fácilmente con el hidrógeno y lo elimina dé la placa. También se suele reemplazar el ácido sulfúrico por cloruro de amonio, sustancia de manipulación mucho menos peligrosa.

Existen otras pilas húmedas: la de Weston, de cadmio y mercurio, muy constante y estable a temperatura fija: suele ser de vidrio y se la emplea para comparar voltajes. La pila de Lalande no usa ácido, sino sosa cáustica, zinc y óxido de cobre.   Trabaja bien en frío.   Su densidad es baja.

LA PILA SECA
La pila seca consiste en un receptáculo de zinc (“placa” negativa de la pila) en cuyo interior hay una varilla de carbón rodeada de una mezcla de polvo de carbón, bióxido de manganeso (MnOa), cloruro de amonio y cloruro de zinc en agua. La reacción química entre el cloruro de amonio (CINHJ y el zinc deja a éste con un exceso de electrones mientras la varilla de carbón, que actúa como segunda “placa”, queda con escasez de electrones, es decir, cargada positivamente.

El bióxido de manganeso actúa como despolarizador: elimina el hidrógeno adherido al carbón. La diferencia entre la pila seca y la húmeda consiste en que en la primera el electrólito, absorbido por un medio poroso, no fluye, no se escurre. El uso ha reservado este nombre a las pilas Leclanché, pero existen otras. La varilla de carbón no suele ser de grafito, sino de negro de humo proveniente de la combustión de acetileno. La pasta gelatinosa que contiene el electrólito puede ser de almidón y harina, o una bobina de papel: las pilas modernas usan metilcelulosa  con  mejores resultados.    El  voltaje  obtenido es 1,6; por cada amperio se consume  1,2 gramos de zinc.

ACUMULADORES
La pila voltaica y la pila seca se llaman primarias o irreversibles porque las reacciones químicas no pueden invertirse, ni volver a emplearse los materiales gastados. Una pila secundaria o reversible (por ejemplo, una batería de automóvil) puede cargarse nuevamente y emplearse otra vez haciendo pasar en sentido opuesto una corriente continua. Así se invierten las reacciones químicas que tuvieron lugar durante la generación de electricidad y los materiales vuelven a su estado original.

El acumulador de plomo es un ejemplo de pila secundaria. En lugar de placas se compone de rejillas para aumentar la superficie de contacto con la solución de ácido sulfúrico en agua destilada. Los huecos de una placa están llenas de plomo esponjoso y ios de la otra de bióxido de plomo (PbCW. La placa de plomo metálico (negativa) corresponde al  zinc y  la  de  bióxido de plomo equivale  ai carbón de la pila seca (positiva).

Ambas placas reaccionan con el ácido sulfúrico y se forma sulfato de plomo. El acumulador se agota cuando ambas placas quedan recubiertas con un depósito blanco de sulfato de plomo y paralelamente disminuye la concentración del ácido sulfúrico.

La corriente eléctrica de recarga regenera en una placa el plomo esponjoso, en la otra el bióxido de plomo, y restituye el ácido sulfúrico al agua. La “batería” completa consta de varios acumuladores conectados  entre  sí  para  aumentar  la  tensión  eléctrica   o voltaje del conjunto.

Los acumuladores convienen para descargas breves de alto nivel (estaciones telefónicas, locomotoras, automóviles). Los nuevos plásticos les confieren menor peso. En autos y aviones las placas delgadas permiten reducir peso y espacio y proporcionar mejor rendimiento a bajas temperaturas. Pero las placas gruesas son sinónimo de larga vida, más o menos 1.000.000 de ciclos cortos.

Riesgos del Uso de Uranio en la Centrales Atomicas Ventajas Riesgos

Riesgos del Uso de Uranio en la Centrales Atómicas

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos. La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones. Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

El funcionamiento normal de las centrales nucleares esparce por todo el mundo un repugnante espectro de substancias letales que no podrán nunca ser contenidas de modo seguro y que el ambiente natural no puede absorber de modo seguro. Por fortuna, la energía nuclear es tan innecesaria como injustificada: podemos satisfacer las necesidades de electricidad del mundo sin una sola central nuclear de fisión, si atemperamos de modo razonable nuestra demandas de energía.

Las únicas centrales que existen actualmente utilizan la fisión. La fusión, una tecnología que podría revolucionar la vida sobre la Tierra si se logran superar a un coste competitivo las barreras científicas que lo impiden, no existirá, suponiendo que así sea, hasta finales de siglo.

La energía de la fisión se debe a la liberación de calor que se produce cuando los átomos de uranio, bombardeados por partícula» atómicas llamadas neutrones, absorben un neutrón y se dividen dando elementos más ligeros, como estroncio y yodo. La división de lo» átomos de uranio libera también otros neutrones que repiten el pro ceso, en una reacción en cadena.

Se crean también elementos mas pesados cuando algunos de los átomos de uranio 238 en lugar de dividirse se transforman en plutonio 239, absorbiendo un neutrón. Muchos de los elementos creados a consecuencia de la fisión son inestables, es decir, que pierden energía rápidamente emitiendo partícula», Estas emisiones, llamadas radioactividad, son peligrosas para lo» seres vivos porque pueden desorganizar los genes y los tejidos.

La energía de fisión tiene la característica única entre todos los sistemas de obtención de energía, de añadir a los niveles del fondo natural cantidades de radiación equivalente, lo que no hace ninguna otra tecnología. El calor liberado en la fisión, se utiliza para convertir agua en vapor, que una vez proyectado sobre las paletas de una turbina eléctrica crea electricidad por la rotación de una bobina dentro de un campo magnético.

Este proceso ha fascinado a los científicos, los ingenieros y burócratas, debido principalmente a un hecho asombroso: la fisión de unos 30 gramos de uranio libera la misma energía aproximadamente que la combustión de 100 toneladas de carbón. Muchas personas a la caza de esta milagrosa cornucopia de energía, han cernido los ojos a los problemas y consecuencias que la fisión trae para nuestro ambiente.

Los partidarios de la fisión nuclear aseguran que es asegura, barata y limpia con respecto al medio ambiente», y que sus riesgos son aceptables. Mantienen que la fisión es una tecnología probada, disponible, y «en producción», mientras que otras energías de recambio no producirán energía con la rapidez necesaria para satisfacer nuestras necesidades.

La Energía Nuclear aporta un 33% de la energía consumida en Europa, de manera limpia, sin emisiones de gases de efecto invernadero y causantes de la lluvia ácida y sin perjudicar la capa de ozono. Además las centrales nucleares producen cantidades muy pequeñas de residuos sólidos en proporción a las grandes cantidades de electricidad que producen y el efecto de las emisiones líquidas y gaseosas en el medio ambiente es inapreciable. Otro problema distinto, es donde almacenar los residuos que se producen, residuos con vidas media muy largas.

Por otro lado la Energía Nuclear no está sujeta a cambios en las condiciones climáticas, sino que las centrales nucleares operan 24 horas al día durante los 365 días del año, lo que supone una gran garantía de suministro. Además no sufre fluctuaciones imprevisibles en los costes y no depende de suministros del extranjero, lo que produce precios estables a medio y largo plazo.

Los que defienden energías de recambio están en total desacuerdo y aseguran que si se dispusiera de sólo una pequeña fracción de los fondos dedicados actualmente a la fisión nuclear, se podrían crear en unos pocos años industrias energéticas de recambio seguras, industrias que proporcionarían tanta energía como la que se obtiene de la fisión. Señalan especialmente que el desarrollo de «energías menos duras» ha sido perjudicado por la enorme sangría de recursos que la fisión nuclear ha impuesto a los fondos de investigación energética de los EE.UU.

Los problemas más serios de la fisión se deben a que una sola central nuclear de fisión de gran tamaño produce tanta radioactividad de vida prolongada como la explosión de 1.000 bombas atómicas de Hiroshima. Y se cree que la exposición de las personas a la radiación aumenta el riesgo de cáncer, de daños genéticos, enfermedades del corazón y muchas otras dolencias. Parece ser que en los niños que todavía no han nacido, la radiación aumenta los riesgos de defectos congénitos y retraso mental. Pero a pesar de esto, la Comisión de energía atómica (AEC), ha anunciado planes para autorizar la instalación de 1.000 centrales nucleares en los próximos 25 años.

El contaminante radioactivo más peligroso de los muchos que producen los reactores, es el plutonio. Se trata de una sustancia artificial, que no existe de modo natural en la Tierra, y que es el ingrediente explosivo de las armas nucleares. Es tan mortal, que tres cucharadas de plutonio contienen suficiente radioactividad para inducir el cáncer en más de 500 millones de personas, según el Dr. John W. Gofman, codescubridor del uranio 233.

En su opinión se trata de la sustancia más tóxica de la Tierra, y una mota infinitesimal, más pequeña que un grano de polen, produce cáncer si se respira o se traga con el agua. Y, sin embargo, el funciona-miento de 2.000 reactores producirá 400.000 kilos de este material cada año: un desecho para el cual no existen sistemas de recolección. Hay que guardar el plutonio en depósitos con una vigilancia sin falla por los menos durante 250.000 años, más de 125 veces la duración de toda la era cristiana, a no ser que se dé un gran paso en la tecnología de los deshechos radioactivos.

Hay que guardar también el plutonio para evitar que sea robado con fines terroristas. Se necesitan sólo unos pocos kilos de plutonio para fabricar una bomba que borraría del mapa ciudades como San Francisco, Nueva York o Moscú. Estas destrucciones pueden llevarse a cabo con una facilidad escandalosa. Un estudio secreto de la AEC informó que dos físicos que acababan de finalizar su carrera fueron capaces de diseñar una bomba atómica recurriendo únicamente a las obras accesibles al público.

Vivimos una época en la que casi cualquier país o grupo de presión con unos pocos científicos capacitados, puede convertirse en potencia nuclear, creando un riesgo terrible de guerra o accidente nuclear Si éstos fuesen los únicos peligros que presenta la energía de fisión, constituirían motivo suficiente para abandonarla.

Entre otros problemas están la falta de técnicas seguras de almacenamiento para los deshechos nucleares de alto nivel, la posibilidad de que se produzcan fugas catastróficas de radioactividad de las centrales nucleares, y emisiones normales radioactivas.

— Cuando sus recipientes sufren alteraciones normales escapan al medio ambiente deshechos de alto nivel, y los que critican el sistema aseguran que parte de los deshechos se ha incorporado al agua del suelo. Los deshechos se ven expuestos dentro de sus tanques a la acción de saboteadores, terremotos, guerras o accidentes; una sola de estas causas, bastaría para dejar sueltas de golpe cantidades colosales de radioactividad.

— Las medidas de protección destinadas a proteger al público contra accidentes nucleares serios, no se han puesto nunca a prueba de modo completo y en condiciones reales de funciona miento. La explosión de una central podría causar miles de muertos y daños por valor de 17.000 millones de dólares, según la AEC. (caso de Chernobyl en 1986 y Japón en 2010)

— La fuga de sólo un mínimo por ciento de la radioactividad del núcleo de un reactor, podría convertir en inhabitable una zona del tamaño de California.

— Aparte de los accidentes, las centrales de fisión emiten de modo normal radioactividad por los gases de sus chimeneas y por el agua de deshecho. Según cálculos realizados por eminentes cien tíficos, los límites federales legales para este tipo de radiación son tan altos que si cada persona en el país se viera expuesta a los límites de radiación permitidos, se producirían cada año, 32.000 fallecimientos más por cáncer y leucemia y de 150.000 a 1.500.000 fallecimientos genéticos adicionales. El coste-anual para la seguridad social de las enfermedades inducidas genéticamente ha sido calculado por el especialista en genética, premio Nobel, Joshua Lederberg, en 10.000 millones de dólares.

cuadro central nuclear

Cuadro funcionamiento de una central nuclear

Central Nuclear Atucha I

La Fision o Desintegracion Nuclear La Energia del Atomo de Uranio

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

Los fundamentos de la física atómica

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos.

La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones.

Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

La rapidez con que se establece y se propaga la reacción en cadena dilataría y haría explotar la masa con extrema violencia antes que todos los núcleos hubiesen podido ser fragmentados. Si se admite que sólo el 10% de los átomos participa en la reacción, la enorme cantidad de energía liberada equivale a la producida por la explosión de 2000 toneladas de trinitrotolueno.

En la foto de arriba se encuentran compartiendo una información física Albert Einstein y Leo Szilard.
El doctor Leo Szilard, fue a quien se le ocurrió mientras esperaba el cambio de un semáforo en la intersección de Southampton Row en Londres, la ideas de producir una reacción nuclear controlada, bombardeando núcleos con neutrones. Por puro juego, y no por ningún impulso agresivo, el físico bajito y gordo, húngaro de nacimiento, visualizó una reacción atómica en cadena mientras deambulada por la ciudad en aquel dorado septiembre de 1933, dedicado a sus pasatiempos favoritos: pensar y pasear.

En forma de calor, mil novecientos millones de grandes calorías estarían disponibles, constituyendo el centro de la volatilización de toda materia presente. En una fracción infinitesimal de segundo, la temperatura se elevaría a centenares de miles de grados en el lugar de la explosión, engendrando un espantoso vendaval cuyos efectos destructores —merced a la propagación de la onda de compresión— semejarían a la devastadora barrida de una gigantesca marca.

En vísperas de la Segunda Guerra Mundial, todas estas posibilidades no pasaban de ser meras previsiones teóricas, a las cuales, sin embargo, el comienzo del conflicto bélico iba a conferir excepcionales alcances. Hacia fines de 1940, cuando el secreto militar comenzó a volver impenetrable el velo que cubría las investigaciones sobre la energía nuclear, la utilización de la misma para producir una bomba parecía todavía un objetivo muy lejano e incluso utópico. Sin duda se sabía que el uranio 235 era particularmente sensible a la “fisión” y que ofrecía una sección eficaz mayor a los neutrones lentos que a los rápidos; se habían desarrollado métodos para producir neutrones lentos; se habían elaborado procedimientos para separar el uranio 235 de su isótopo corriente; se había logrado aislar dos elementos transuránicos, el neptunio y el plutonio, y se reconocía que este último era también “fisionable” en circunstancias semejantes a las del uranio 235.

Además, se habla adquirido la certeza de que en la “fisión”, al menos un neutrón rápido —y en término medio dos o tres— era emitido por el núcleo. Sin embargo, a pesar del conjunto de tales progresos, todavía nadie había logrado producir una reacción autosustentada. Algunos investigadores incluso se preguntaban si la naturaleza acepta someterse a las exigencias de los teóricos. Tal vez la reacción en cadena era, en general, irrealizable. Pero las dudas terminaron por disiparse definitivamente el 2 de diciembre de 1942: ENRICO FERMI había realizado en Chicago, por primera vez, una reacción nuclear autosostenida.

El dispositivo construido en Chicago consistía en una pila de ladrillos de grafito puro que incluía trozos de uranio, separados por distancias regulares conforme a un esquema geométrico. El grafito servía de sustancia moderadora destinada a frenar mediante choques elásticos los neutrones que salen dotados de elevadas velocidades de la ruptura nuclear del uranio 235. Algunos de los neutrones penetran en el isótopo pesado U-238, otros vuelven a ser capturados por el isótopo liviano U-235, puesto que ambos están presentes en los trozos de metal de la pila. Los proyectiles que golpean el U-238 provocan su transformación, que termina por dar origen al plutonio, mientras neutrones capturados por núcleos de U-235 producen la “fisión” de éstos, expulsando neutrones que siguen provocando nuevas rupturas.

Así, la pila produce a la vez materia “fisionahle” (plutonio) y libera energía al desintegrar núcleos. Agreguemos que para el arranque no se necesita detonador ni ningún otro dispositivo especial; los neutrones de origen cósmico existentes en la atmósfera, o neutrones errantes que provienen de la explosión espontánea de un átomo de uranio, son suficientes para iniciar la reacción. Una condición indispensable para el funcionamiento de la pila es su volumen, que debe superar cierto tamaño crítico. De lo contrario el número de neutrones que escapan por la superficie de la pila no permite que se establezca la cadena de las reacciones. Para el autosostenímiento de la cadena es menester, además, que cada neutrón incidente produzca al menos un nuevo neutrón apto para determinar a su vez la ruptura de un núcleo, siendo en este caso el “factor de multiplicación” igual a la unidad.

La cadena se extingue si dicho factor resulta inferior a uno; en cambio, si es considerablemente superior, la liberación continua y lenta de la energía se transforma en un proceso explosivo, convirtiendo a la pila en una bomba. Tan peligrosa proliferación de neutrones es contrarrestada introduciendo en la masa de grafito láminas de materia absorbente (cadmio) que permiten mantener constante la velocidad de la reacción y “controlar” el nivel energético de la pila mediante un dispositivo automático. Tales fueron, a grandes rasgos, las fundamentales características de la pila de FERMI, arquetipo de todos los reactores.

Al principio la pila de FERMI engendró, en forma de calor, una potencia de 0,5 vatio; poco después aumentó su nivel de energía hasta llegar a 200 vatios. Con tal reducido poder, una pila debería funcionar varios miles de años para producir la cantidad de plutonio requerida en la fabricación de una sola bomba. Mas una conquista no puede medirse en vatios. La posibilidad de liberar energía nuclear en escala macroscópica estaba magníficamente demostrada. Si bien la distancia que separa la pila experimental de Chicago de la bomba experimental de Alamogordo era muy superior a la existente entre la rudimentaria máquina de vapor de NEWCOMEN y la locomotora de STEPHENSON, el largo camino fue recorrido en el breve intervalo de treinta meses gracias al formidable potencial tecnológico de los Estados Unidos, y al esfuerzo de un verdadero ejército de científicos, técnicos y trabajadores. El 6 de agosto, la pavorosa explosión que arrasó la ciudad de Hiroshima anunció al mundo que el hombre disponía de nuevas y tremendas fuerzas aprisionadas desde eternidades en las entrañas de la materia.

“En el interior de una bomba de fisión —escribe uno de los principales constructores de la bomba, ROBERT OPPENHEIMER (1904-1967)—, se materializa un lugar con el cual ningún otro

El factor de multiplicación es el cociente del número de los nuevos neutrones producidos y el número inicial de los neutrones primitivos.
En la pila de FERMI el factor de multiplicación era igual a 1,007.

puede ser comparado. Al explotar la bomba se producen temperaturas más elevadas que las que reinan en el centro del Sol; su carga está constituida por materias que normalmente no existen en la naturaleza y se emiten radiaciones (neutrones, rayos gamma, electrones) de una intensidad que no tiene precedentes en la experiencia humana. Las presiones que se obtienen equivalen a billones de veces la presión atmosférica. En el sentido más primario y más sencillo, es perfectamente cierto que con las armas atómicas el hombre ha creado situaciones nuevas.”

En pilas y bombas de uranio (o plutonio), la energía se produce por la ruptura de un elemento muy pesado en fragmentos menos pesados. Sin embargo, para producir enormes cantidades de energía no es éste el proceso que la naturaleza elige. Las estrellas prefieren la fusión a la “fisión”; como ya dijimos, transforman en gigantesca escala —por síntesis de elementos livianos— una parte de su materia nuclear en energía radiante. Tan sólo las prodigiosas reservas energéticas, cuyo depósito son los núcleos, pueden permitir al Sol irradiar en forma de luz y calor, año tras año, tres quintillones (3 x 1030) de grandes calorías.

Este torrente de energía solar fluye por lo menos desde hace cuatrocientos o quinientos millones de años, puesto que las pruebas aportadas por la flora y fauna paleozoicas sugieren que las condiciones climáticas de la Tierra no han cambiado esencialmente desde aquella remotísima era primaria. Mas ¿cuál es la transformación nuclear capaz de alimentar tan formidable despliegue energético, que equivale por segundo a una pérdida de cuatro millones de toneladas de masa solar? No cabe duda de que la transformación del elemento más común del universo, el hidrógeno en helio (el elemento que sigue al hidrógeno en la Tabla Periódica), podría suministrar la fuente energética de la radiación solar.

En efecto, la síntesis del helio a partir de los constituyentes de su núcleo está acompañada —como hemos explicado al tratar la energía de la unión nuclear— por la pérdida de una parte de las masas que intervienen, siendo liberada la masa desaparecida —de acuerdo con la equivalencia einsteniana— en forma de energía radiante. Sin embargo, el mecanismo de la supuesta transmutación no había dejado de ser enigmático hasta que HANS BETHE, hacia 1940, propuso su hipótesis del ciclo del carbono.

Las enormes temperaturas que reinan en el interior del Sol —veinte millones de grados en la región central— confieren a las partículas de la masa solar —y especialmente a los protones a velocidades tan elevadas que éstas pueden penetrar en los núcleos de elementos livianos y transmutarlos. Así, el núcleo ordinario de carbono, bombardeado por un protón, se transforma al capturarlo en un isótopo del nitrógeno que se desintegra. En cinco reacciones consecutivas engendran con la emisión de dos electrones positivos varios isótopos de carbono, de nitrógeno y de oxígeno. Bombardeados éstos a su vez por núcleos de hidrógeno, conducen finalmente a la formación del helio.

La excepcional característica de este ciclo, que convierte cuatro núcleos de hidrógeno en un núcleo de helio, es la reaparición del carbono inicial en la última reacción, que se encuentra así regenerado. Desempeña el papel de catalizador y puede ser utilizado innumerables veces, hasta que todo el hidrógeno solar haya sido transmutado en helio, asegurando así las reservas energéticas del Sol durante miles de millones de años. A idénticas o análogas reacciones termonucleares deben sus caudales de energía también otras estrellas.

No cabe duda de que el ciclo de carbono, productor de la energía solar, representa el primordial proceso físico-químico del universo desde la perspectiva de la historia humana. Sin las reacciones termonucleares, que se realizan en el interior del Sol, la vida no habría podido surgir sobre la superficie de la Tierra, donde los fenómenos biológicos, desde la fotosíntesis de la clorofila de los vegetales hasta el metabolismo en el organismo de los animales y del hombre, son tributarios de la radiación solar. Es un hecho realmente notable que el carbono —sustancia básica de la materia viva— desempeñe también el papel de catalizador en el grandioso proceso cósmico que dio origen primario a todas las actividades vitales en la naturaleza terrestre.

La síntesis de elementos livianos a partir del hidrógeno ha dejado de ser privilegio de las masas estelares desde hace algunos años. Reacciones termonucleares, productoras de la fusión de núcleos, suministran la fuente energética a la novísima arma: la bomba de hidrógeno. Desde luego, el ciclo de BETHE, que genera helio en las profundidades del globo solar es demasiado lento y complicado para el uso militar.

Es probable que la transmutación de una masa de los dos isótopos pesados del hidrógeno, el deuterio y el tritio, en helio, esté en la base de la liberación de energía realizada por la nueva bomba. Para establecer las formidables temperaturas (varios millones de centígrados) capaces de desencadenar la reacción se utiliza la ruptura del uranio o del plutonio: la bomba de “fisión” sirve de detonador a la superbomba de fusión. El modelo de ésta, utilizado por los expertos estadounidenses en las pruebas de Enivetock, a fines de 1952, superaba doscientas veces el poder (es decir, la cantidad de energía liberada) de la bomba de Hiroshima, según estimaciones extraoficiales.

No cabe duda de que la posibilidad de borrar de la superficie del globo cualquiera de las grandes metrópolis de la Tierra mediante la explosión de una bomba o a lo sumo de muy pocas bombas está, desde ahora, dentro de los alcances del hombre. El uso de esta arma en un conflicto bélico significaría la abdicación de la razón humana y equivaldría a una tentativa de suicidio del homo sapiens.

PARA SABER MAS…
1938:SE DESCUBRE LA FISIÓN NUCLEAR

A mediados de los anos treinta, físicos de Alemania, Francia e Italia competían por ser los primeros en conseguir romper un átomo. El físico francés Frédéric Joliot-Curie había iniciado la carrera al declarar que «las reacciones nucleares en cadena» conducían a la «liberación de enormes cantidades de energía aprovechable».

En 1935 había sido galardonado con el Premio Nobel (junto con su mujer, Irene Joliot-Curie) por el descubrimiento de la radiactividad artificial. En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner empezó a bombardear átomos de uranio con neutrones. Los científicos esperaban que el proceso diera lugar a elementos radiactivos más pesados similares al uranio. En vez de esto, a finales de 1938, Hahn y Strassmann (Meitner, judía austríaca, había huido a Suecia después de que Hitler invadiera Austria en marzo) se sorprendieron al descubrir que su bombardeo sobre el uranio había dado lugar a un elemento mucho más ligero que el uranio, llamado bario.

Hahn y Strassmann enviaron sus resultados a Meitner, a Estocolmo, donde ella y su sobrino, el físico Otto Frisen, investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas, como se suponía, desarrollaba una «cadena» y luego se rompía en dos fragmentos ligeros prácticamente iguales, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. La diferencia de peso se convertía en energía.

Meitner dio el nombre de «fisión» al proceso. Joliot-Curie descubrió que la fisión del uranio producía la liberación de neutrones adicionales que, a su vez, podían ser utilizados para romper otros átomos de uranio. Se habían establecido las condiciones para el tipo de reacción en cadena que daría lugar a la bomba atómica.

Durante la guerra, Hahn y Strassmann permanecieron en Alemania. Hahn fue capturado por los aliados en la primavera de 1945 y, mientras se hallaba detenido en Inglaterra, se enteró de que había ganado el Nobel de Química de 1944. Cuando aceptó el premio, el sentimiento de que había realizado un gran descubrimiento científico estaba empañado a causa de que la fisión había hecho posible la destrucción de Hiroshima y Nagasaki. Después de la guerra, Hahn defendió con gran pasión el control de las armas nucleares.

Fuente Consultada: Historia de la Ciencia Desidero Papp

Pasos del Metodo Cientifico Etapas Metodo Experimental Deductivo

Pasos del Método Científico
metodo experimetal

1. LA OBSERVACIÓN DEL FENÓMENO
Una vez planteado el fenómeno que se quiere estudiar, lo primero que hay que hacer es observar su aparición, las circunstancias en las que se produce y sus características. Esta observación ha de ser reiterada (se debe realizar varias veces), minuciosa (se debe intentar apreciar el mayor número posible de detalles), rigurosa (se debe realizar con la mayor precisión posible) y sistemática (se debe efectuar de forma ordenada).

2. LA BÚSQUEDA DE INFORMACIÓN
Como paso siguiente, y con objeto de reafirmar las observaciones efectuadas, deben consultarse libros, enciclopedias o revistas científicas en los que se describa el fenómeno que se está estudiando, ya que en los libros se encuentra e conocimiento científico acumulado a través de la historia. Por este motivo, la búsqueda de información } la utilización de los conocimientos existentes son imprescindibles en todo trabajo científico.

3. LA FORMULACIÓN DE HIPÓTESIS
Después de haber observado el fenómeno y de haberse documentado suficientemente sobre el mismo, el científico debe buscar una explicación que permita explicar todas y cada una de las características de dicho fenómeno.
Como primer paso de esta fase, el científico suele efectuar varias conjeturas o suposiciones, de las que posteriormente, mediante una serie de comprobaciones experimentales, elegirá como explicación del fenómeno la más completa y sencilla, y la que mejor se ajuste a los conocimientos generales de la ciencia en ese momento. Esta explicación razonable y suficiente se denomina hipótesis científica.

4. LA COMPROBACIÓN EXPERIMENTAL
Una vez formulada la hipótesis, el científico ha de comprobar que ésta es válida en todos los casos, para lo cual debe realizar experiencias en las que se reproduzcan lo más fielmente posible las condiciones naturales en las que se produce el fenómeno estudiado. Si bajo dichas condiciones el fenómeno tiene lugar, la hipótesis tendrá validez.

instrumentos de presley cientifico

Lámina de «Observations on differents kinds of air» del gran científico Joseph Priestley, mostrando uno de sus experimentos para demostrar los efectos de la combustión, putrefacción y respiración en una planta de menta  y en ratones.

5. EL TRABAJO EN EL LABORATORIO
Una de las principales actividades del trabajo científico es la de realizar medidas sobre las diversas variables que intervienen en el fenómeno que se estudia y que son susceptibles de poder medirse. Si te fijas, en el experimento anterior no se ha podido tomar ninguna medida, por lo cual es conveniente repetir la experiencia en un lugar donde pueda tomarse, es decir, en el laboratorio.

Estas experiencias realizadas en los laboratorios se denominan experiencias científicas, y deben cumplir estos requisitos:

a) Deben permitir realizar una observación en la que puedan tomarse datos.

b) Deben permitir que los distintos factores que intervienen en el fenómeno (luminosidad, temperatura, etc.) puedan ser controlados.

c) Deben permitir que se puedan realizar tantas veces como se quiera y por distintos operadores.
Habitualmente, en ciencias experimentales, los trabajos de laboratorio permiten establecer modelos, que son situaciones o supuestos teóricos mediante los que se efectúa una analogía entre el fenómeno que ocurre en la Naturaleza y el experimento que realizamos.

6. EL TRATAMIENTO DE LOS DATOS
Las medidas que se efectúan sobre los factores que intervienen en un determinado fenómeno deben permitirnos encontrar algún tipo de relación matemática entre las magnitudes físicas que caracterizan el fenómeno que se estudia. Para llegar a esa relación matemática, los científicos suelen seguir dos pasos previos: el análisis de los factores y la construcción de tablas y de gráficos.

7. EL ANÁLISIS DE LOS FACTORES
El estudio en profundidad de un fenómeno requiere en primer lugar la determinación de todos los factores que intervienen en él. Para que ese estudio se realice en la forma más sencilla, se fija una serie de magnitudes que no varían (variables controladas) y se estudia la forma en que varía una magnitud (variable dependiente) cuando se produce una variación de otra magnitud (variable independiente).

Así, por ejemplo, si lo que queremos es estudiar el alargamiento que experimenta un resorte cuando colgamos diversas pesas de uno de sus extremos, hay un conjunto de magnitudes que podemos considerar invariables (la temperatura del recinto donde hacemos el experimento, la presión atmosférica dentro del mismo, la humedad relativa del aire, etc.), que corresponden a las variables controladas. En este caso, la longitud del alargamiento del resorte será la variable dependiente, y el peso que colgamos de su extremo será la variable independiente.

8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS
La construcción de tablas consiste en ordenar los datos numéricos obtenidos sobre las variables independiente y dependiente. Siempre se han de especificar las unidades en las que se miden dichas variables, para lo cual se utilizan los paréntesis a continuación de sus nombres.

En el caso del resorte, la tabla podría ser así:
La representación gráfica consiste en representar los datos de las medidas en un sistema de ejes cartesianos, donde normalmente la variable independiente se hace corresponder con el eje X, mientras que la variable dependiente se hace corresponder con el eje Y.

Se llama ajuste de la gráfica al procedimiento mediante el cual se determina la línea que pasa por los puntos que se han representado o la más cercana a ellos.

En la mayoría de los casos, las gráficas que se obtienen son líneas rectas, lo que indica que la relación entre las magnitudes físicas representadas es de la forma y = k • x. donde k es una constante. En otros casos, la relación entre ambas magnitudes es de tipo parabólico, lo que matemáticamente representa que y = k • x2; o de tipo hiperbólico, cuya formulación es de la forma x • y = k.

9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS
El análisis de los datos y la comprobación de las hipótesis lleva a los científicos a emitir sus conclusiones, que pueden ser empíricas, es decir, basadas en la experiencia, o deductivas, es decir, obtenidas tras un proceso de razonamiento en el que se parte de una verdad conocida hasta llegar a la explicación del fenómeno.
Una vez obtenidas dichas conclusiones, éstas deben ser comunicadas y divulgadas al resto de la comunidad científica para que así sirvan como punto de arranque de otros descubrimientos, o como fundamento de una aplicación tecnológica práctica .

10. LA ELABORACIÓN DE LEYES Y TEORÍAS
El estudio científico de todos los aspectos de un fenómeno  natural lleva a la elaboración de leyes y teorías.

Una ley científica es una hipótesis que se ha comprobado que se verifica.

Una teoría científica es un conjunto de leyes que explican un determinado fenómeno.

Así, por ejemplo, la hipótesis comprobada de que el are iris se forma debido a la refracción que experimenta la li al atravesar las gotas de agua de la lluvia, es una ley que s enmarca dentro de un conjunto de leyes que rigen otros fenómenos luminosos (reflexión, dispersión, etc.). Este con junto se conoce como teoría sobre la luz.

Tanto las leyes como las teorías deben cumplir los siguientes requisitos:

1. Deben ser generales, es decir, no sólo deben explica casos particulares de un fenómeno.
2. Deben estar comprobadas, es decir, deben estar avaladas por la experiencia.
3. Deben estar matematizadas, es decir, deben pode expresarse mediante funciones matemáticas.

Las teorías científicas tienen validez hasta que son incapaces de explicar determinados hechos o fenómenos, o hasta que algún descubrimiento nuevo se contradice con ellas, a partir de ese momento, los científicos empiezan a plantearse la elaboración de otra teoría que pueda explicar eso; nuevos descubrimientos.

Rene Descartes

René Descartes creó la geometría analítica, también denominada «geometría cartesiana», en la que los problemas geométricos pueden traducirse a forma algebraica. Se trataba de un método extremadamente poderoso para resolver problemas geométricos y, a la postre, también dinámicos (el problema del movimiento de cuerpos), un método que conservamos más de tres siglos después.En más de un sentido la contribución de Descartes preparó el camino para el gran descubrimiento de Newton y Leibniz: el del cálculo diferencial (o infinitesimal) e integral, el universo de las derivadas y las integrales; un instrumento  incomparable para la indagación matemática y física.

Instrumentos de Boyle
Lámina donde se muestran los instrumentos del laboratorio de Boyle

PARA SABER MAS…
EXPERIMENTO CIENTÍFICO

Un buen ejemplo de investigación científica mediante experiencias sensatas  es el modo en que Galileo estudió la fuerza de gravedad, llegando a descubrir la ley del movimiento uniformemente acelerado de los graves: un mentís clamoroso a la teoría de Aristóteles, que consideraba la velocidad de la caída proporcional al peso.

El plano inclinado que construyó para el estudio del movimiento gravitacional es relativamente simple desde el punto de vista tecnológico: consiste en una viga de seis metros de largo, de buena madera (para impedir que se combe) y que puede inclinarse a voluntad, dotada de una acanaladura cuidadosamente alisada para reducir al mínimo la fricción de las bolas.

Este aparato tan sencillo tiene ya las características de un moderno instrumento científico, porque permite modular a voluntad cualquier parámetro notable de la experiencia. La inclinación, por ejemplo, puede reducirse haciendo más lentos los tiempos de caída, o bien aumentarse hasta rozar la verticalidad (de este modo, la caída libre se convierte en un simple caso límite).

metodo cientifico

El primer plano inclinado de Galileo estaba provisto de campanillas
para señalar los tiempos de caída de la bola.

Al principio, el científico afrontó el problema central (es decir, la comprobación exacta de los tiempos de caída) situando en el plano inclinado a intervalos regulares unas campanillas, de modo que sonasen al paso de la bola. Galileo, además de haber estudiado música, era también un avezado intérprete y contaba con la sensibilidad de su oído, muy entrenado para percibir ritmos e intervalos sonoros. Pero se trataba evidentemente de una solución aún primitiva, insuficiente para llegar a una cuantificación precisa de los tiempos.

El ingenio de Galileo resolvió brillantemente el problema con la construcción de un reloj de agua. Hacía coincidir el comienzo de la caída del grávido con la apertura de un grifo colocado bajo un tanque (mantenido a presión constante en todas las mediciones).

Al final de la caída, bastaba con cerrar el grifo y ocuparse de pesar el líquido almacenado; de este modo transformaba las cantidades de tiempo en cantidades de peso, mensurables y cotejables con gran precisión. Galileo descubrió así que, aunque una mayor inclinación del plano hacía aumentar la velocidad de caída, la relación entre espacios recorridos y tiempos empleados se mantenía constante para cualquier inclinación (por lo tanto, también en el caso límite de la caída libre).

Descubrió sobre todo que esta aceleración no depende del peso, en contra de lo que afirmaba Aristóteles.

Revolucion cientifica Trabajo de Galvani

Grabado mostrando diferentes experimentos de Luigi Galvani (Viribus Electricitatis in Motu Musculari Commentarius [Comentarios relativos a los efectos de la electricidad sobre el movimiento muscular] 1791) acerca de los efectos de la electricidad en ranas y pollos.

La observación, la experimentación y la construcción de teorías y modelos
La recolección de datos es una empresa importante para sostener cualquier trabajo científico. Estos datos pueden ser obtenidos por la observación sistemática de situaciones espontáneas o por la experimentación, que consiste en provocar el fenómeno que se quiere estudiar. Lo importante es ver cómo estos datos se utilizan para formular teorías o modelos.

En la actualidad, casi todos los filósofos de la ciencia están de acuerdo en que los datos por sí solos no explican nada, e incluso hay muchos que ponen en duda que existan datos puros, ya que la observación, sea espontánea o provocada, está siempre condicionada por el conocimiento del observador.

Así, por ejemplo, si un químico se encuentra cerca de una industria que produce acero, olerá dióxido de azufre y podrá inferir qué le puede ocurrir a su cuerpo o al ambiente ante la presencia de esta sustancia. En cambio, un niño que pase por el mismo lugar solo percibirá olor a huevo podrido. Como se puede notar, tanto uno como otro participan de la misma situación, pero la interpretación varía enormemente en función de los conocimientos que cada uno posee acerca del fenómeno que observan.

Además del papel decisivo que tienen los conocimientos del observador, no se debe olvidar que muchas de las observaciones que se realizan se hacen en forma indirecta, es decir, a través de la utilización de instrumentos, indicadores, etcétera, que, en muchos casos, distorsionan el fenómeno.

En la experimentación, el fenómeno es preparado por el mismo investigador, quien fija las condiciones, el sitio y el momento de su realización y, además, puede repetirlo numerosas veces.

Dentro de las ciencias de la vida, la mejor manera de poner a prueba las teorías que se relacionan con el funcionamiento de los organismos es con la ayuda de experimentos. Pero hay ciencias en las que los experimentos no son posibles, como es el caso de las ciencias que estudian la historia de los seres vivos (evolución, Paleontología), en las cuales es preciso hacer observaciones adicionales para corroborar una hipótesis.

Otra forma de comprobar una teoría en Biología consiste en utilizar datos provenientes de fuentes distintas; por ejemplo: si para establecer relaciones filogenéticas en distintos grupos de organismos se utilizan evidencias morfológicas, se pueden buscar pruebas adicionales para validar esa hipótesis recurriendo a evidencias bioquímicas, biogeográficas, etcétera.

Hay que destacar que, si bien el surgimiento del método experimental fue fundamental para el avance de la ciencia moderna, este no es el único método utilizado por los científicos. Las metodologías que se utilizan en las investigaciones son variadas, con lo que se descarta la existencia de un único método científico universal.

Laboratorio de Lavoisier

Lavoisier en su laboratorio, experimentando sobre la respiración de un hombre en reposo (dibujo de Marie Anne Lavoisier).

RESPECTO A LA HIPÓTESIS DE INVESTIGACIÓN

El paso que sigue a la formulación del problema de investigación es enunciar las hipótesis que guiarán la investigación. Sin embargo, antes de dar este paso, será necesario fijar algunos criterios que permitan enunciar hipótesis adecuadas.

Como ya saben, una hipótesis es una respuesta posible aun interrogante planteado, que aún no ha sido puesta a prueba. Sin embargo, no todas las respuestas posibles para un problema de investigación son hipótesis.

Requisitos de una hipótesis
Para ser una hipótesis, la respuesta al problema debe reunir determinadas condiciones. Éstas son algunas de ellas. * Ser formulada en un lenguaje preciso y claro. Supongamos, por ejemplo, que alguien enuncia la siguiente hipótesis: “Los científicos que violan el código de ética profesional de la ciencia tienden a mostrar comportamientos amorales en otros ámbitos sociales”. Así formulada, la hipótesis tiene dos problemas: por un lado, no es evidente a qué se llama comportamientos amorales, ya que la expresión no está definida y puede tener más de una interpretación; por otro lado, no es muy claro el sentido de la expresión tienden a (¿cuántos comportamientos amorales tendría que manifestar un científico para que se configure una tendencia?).

* Ser coherente con el conjunto de los conocimientos disponibles sobre el problema de investigación. Por ejemplo, no seria muy interesante formular la hipótesis de que “La ciencia no se enfrenta con ningún problema ético” cuando son conocidos los debates que se plantean continuamente en torno de cuestiones éticas en el ámbito científico. i Hacer avanzar el conocimiento existente. Una hipótesis que reprodujera una afirmación unánimemente aceptada y comprobada en la comunidad científica no sería muy útil para saber más sobre el tema.
Por ejemplo, hoy no tendría sentido indagar la hipótesis de que “La Tierra gira alrededor del Sol”.

* Ser coherente con los objetivos del proyecto de investigación y, por lo tanto, con el tipo de proyecto de que se trate. Por ejemplo, si el proyecto es de naturaleza exploratoria -es decir que sus objetivos también lo son-, no se puede construir una hipótesis explicativa para ese proyecto y esos objetivos.

* Poder ser corroborada o refutada por los datos que se reúnen durante el proceso de investigación. Éste es un requisito muy importante, que los filósofos de la ciencia han debatido y fundamentado extensamente. En el apartado que sigue, se analiza con mayor profundidad.

DIFUSIÓN: Cuando el científico ha comunicado un resultado, su conocimiento permite a los tecnólogos imaginar aplicaciones a distintos sectores de la técnica. Otras veces marcha adelante el tecnólogo y descubre una propiedad desconocida; y es trabajo del científico explicar esa propiedad elaborando una teoría. En espectroscopia hay ejemplos de situaciones como ésas: primero se observaron las líneas espectrales y más tarde se desarrolló la teoría que las explica.

En el campo de la Metalurgia hay innumerables ejemplos: desde hace siglos se conoce y se usa la operación de templar un acero; pero la teoría del fenómeno sólo se conoce desde apenas unas décadas.

Otras veces el tecnólogo presenta sus requerimientos al científico, y éste investiga hasta determinar las condiciones que deben cumplirse para satisfacer aquellos requerimientos. Esto ha ocurrido con frecuencia en los últimos tiempos, por ejemplo en la resolución del problema de la reentrada en la atmósfera de una cápsula espacial: la alta temperatura desarrollada por la fricción con el aire funde cualquier material ordinario, y fue necesario desarrollar nuevos materiales con las propiedades adecuadas. Algunas veces los científicos responden satisfactoriamente a las demandas de los tecnólogos; otras, no. Los problemas y dificultades se renuevan continuamente: nunca estará todo resuelto, pues cada solución abre nuevos caminos, y recorrerlos crea a su vez nuevos problemas.

Experimento con plantas

Grabado reproduciendo un experimento sobre la respiración de plantas y animales, incluido en
Legons sur les phénoménes de la vie communs aux animaux et aux végétaux de Claude Bernard (1878).

¿Qué es cultura científica?
Cada persona que quiere ser útil a su país y a sus semejantes tiene, entre otras cosas, la responsabilidad de adquirir una educación en ciencia (en nuestro caso, a través de la Física y de la Química) que la transforma en una persona capaz de:

• conocer los principios, las leyes y las teorías más generales y sus aplicaciones prácticas más difundidas;

• interpretar fenómenos naturales frecuentes;

• advertir y comprender la incidencia del desarrollo científico y tecnológico sobre las estructuras económicas y sociales en todo el mundo;

• reconocer la universalidad de la ciencia, que por una parte no reconoce fronteras nacionales, y por otra constituye el medio necesario para que la comunidad que forma la nación atienda y resuelva problemas propios;

• detectar, en su región o en su país, problemas susceptibles de ser tratados científicamente, y reconocer la propia responsabilidad en su planteamiento y en la búsqueda de soluciones;

• distinguir entre una simple creencia o una opinión, o una superstición, y una verdad científica;

• comprender que una verdad científica no es una verdad inmutable sino modificable por avances científicos que elaboren una nueva verdad científica más general, que puede abarcar a la anterior;

• gustar del placer intelectual de advertir un fenómeno natural, hacer coherentes partes aparentemente inconexas, plantear una hipótesis plausible y verificarla experimental o teóricamente;

• gustar del placer intelectual de difundir conocimientos y actitudes científicas entre las personas que lo rodean;

• adquirir el amor por la verdad que caracteriza al auténtico pensamiento científico;

• relacionar las explicaciones científicas con otras manifestaciones de la cultura, tales como la filosofía o el arte.

El desarrollo científico y técnico de los últimos tiempos ha ampliado el concepto y las exigencias de “persona culta”, que ya no se limitan al campo de la literatura, las artes o las humanidades exclusivamente.

Fuente Consultada:
Atlas Universal de la Filosofía –
Manual Didáctico de Autores, Textos y Escuelas
Biología y Ciencias de la Tierra Estructura – Ecología – Evolución Polimodal
Formación Ética y Ciudadana Ética, Ley y Derechos Humanos 3° EGB
Elementos de Física y Química Maiztegui-Sabato

Teorias Fisicas Que Fracasaron Errores de la Fisica Erroneas

PRIMERAS TEORÍAS FALSAS: Platón reconocía que el peso de los cuerpos no es más que el efecto de una fuerza que se ejerce sobre ellos de arriba a abajo, lo que equivale a una forma peculiar de concebir la gravedad. El autor del Timeo conoce también la capilaridad y refiere algunos experimentos realizados sobre este particular.

En cinemática, distingue el movimiento progresivo y el movimiento rotativo, reconoce la ley de conservación del plano de rotación en el movimiento de la peonza, apuntando así hacia la invención del giróscopo. Hay que insistir también en el hecho de que Platón recomienda repetidas veces la investigación experimental a la que concede una gran importancia.

La física de Aristóteles de Estagira (384-322) supone, por el contrario, una regresión bastante perjudicial en el terreno científico. El Estagirita rechaza formalmente el atomismo y sustituye la explicación cuantitativa de las cosas por una explicación cualitativa particularmente infantil. Mal matemático, pretende no querer fiarse más que de los datos de los sentidos. y como para él el tacto es el más fundamental de todos, hace dimanar todas las cosas complejas de una simple superposición de lo cálido, de lo frío, de lo seco y de lo húmedo a una hipotética materia prima sin atributo ni cualidad, lo que inevitablemente nos hace pensar en el famoso “cuchillo sin hoja al que le falta el mango” de que habla Rabelais.

Para Aristóteles hay cuerpos pesados y cuerpos ligeros: los primeros tienden hacia abajo y los segundos hacia arriba. Ya no hay ni fuerza centrífuga ni fuerza centrípeta, sino simplemente cualidades contrarias. Además, Aristóteles ha prestado un lamentable servicio a la física con su introducción de la quintaesencia y del éter que de aquí en adelante encontraremos como punto de partida de buen número de teorías, incluso en nuestros mismos días. Añadamos que la virtud de la quintaesencia es la de estar animada de un movimiento rotativo que contrasta con los movimientos ascendentes y descendentes de los cuerpos ligeros o pesados y tendremos una idea de toda la cinemática de Aristóteles.

El movimiento, según el Estagirita. se explica metafísicamente mediante el paso de la potencia al acto, concepto cuya claridad no es precisamente deslumbrante. Como contrapartida, la mecánica aristotélica admite, lo mismo que la de Pitágoras y la de Platón, que sólo el contacto puede explicar las acciones de unos cuerpos sobre otros.

Quizá conozca el lector la extraña balística de Aristóteles según la cual toda trayectoria se divide en tres partes. En la primera aparece el movimiento forzado, en la segunda el movimiento mixto y en la tercera el movimiento natural, lo que produce una curva ascendente, una parte mixta horizontal y una curva descendente. Hubo que esperar hasta 1537 después de Jesucristo para ver esta teoría contraria a toda observación refutada por Tartaglia.

La física de Aristóteles perjudicó a la ciencia en el curso de la Edad Media cuando sus conceptos fueron asimilados e impuestos a todo el mundo cristiano por Santo Tomás de Aquino. Durante los doscientos cincuenta años que siguieron a su muerte, Aristóteles fue ignorado por los grandes físicos del mundo antiguo:Arquímedes. Ctesibios y Herón de Alejandría. En efecto, estos tres genios fueron más hombres prácticos que soñadores, y puede decirse que el primero y mayor de todos ellos ha consagrado definitivamente la ruptura entre la metafísica y la física.

Biografía Fibonacci Leonardo de Pisa Aporte a la Matematica Serie de Fibonacci

Se Presenta a continuación, por orden cronológico, a los matemáticos más destacados en el Edad Media.

Leonardo de Pisa (Fibonaccí) (1170-1250)

Jordano Nemorarius (1225 – 1260)

Nicole Oresmes (1323 – 1382)

En este sitio se tratará sobre la vida y obra de Fibonacci

Leonardo de PISA
(FIBBONACI )(1170-1250)

Leonardo de PISA Matemático autodidacta italiano, nacido en Pisa en 1170, cuyo verdadero nombre era Leonardo de Pisa. Pero más conocido fue por el nombre de Fibonacci (nombre que proviene de la abreviatura de filiuis Bonacci, que significa hijo de Bonacci). Falleció también en Pisa en 1250.

Fue el matemático más importante de la Edad Media.

El padre de Fibonacci, Guilielmo, miembro de la familia Bonacci, era un importante mercader. Era el representante de los mercaderes de la República de Pisa en los negocios con Argelia. Esto le permitió viajar mucho, especialmente por el norte de Africa, donde pasó largos periodos de tiempo. Se trasladó allí a los 20 años y es donde aprendió Matemática.

Regresó de sus viajes a Pisa en 1200, donde tuvo buenas oportunidades para recopilar las matemáticas grecorromanas, árabes e hindúes, conocimientos que luego divulgó.

Su principal obra la publicó en 1202 y es Liber Abací (el Libro del ábaco), en el que se encuentran expuestos: el cálculo de números según el sistema de numeración posicional; operaciones con fracciones comunes, aplicaciones y cálculos comerciales como la regla de tres simple y compuesta.

La división proporcional, problemas sobre la determinación de calidad de las monedas; problemas de progresiones y ecuaciones; raíces cuadradas y cúbicas. En él se recomienda de manera contundente el uso de los números hindú-arábigos, los cuales introduce en Europa. De esta manera empieza a utilizarse el sistema para el cálculo, antes se usaba el ábaco.

(Pisa, ciudad de Italia central, capital de la provincia del mismo nombre, en la región de La Toscana, a orillas del río Amo, próximo al mar de Liguria.)

Sus trabajos sobre matemática recreativa se presentaba como historias, que se transformaron en desafíos mentales en el siglo XIII. Dichos problemas involucraban la suma de sucesiones recurrentes, como el problema de las parejas de conejos, que aparece publicado en la tercera sección de este Libro. Dicho problema da origen a la famosa sucesión de Fibonacci (1, 2, 3, 5, 8, 13,…), que él descubrió.

El problema es el siguiente:

Un hombre puso una pareja de conejos en un lugar cerrado. ¿Cuántos pares de conejos se pueden generar a partir de ese par en un año si se supone que una vez por mes, a partir del segundo mes de su vida, cada pareja da origen a otra nueva?.

  1+1=2 5+8=13  
          1+2=3          8+13=21  
                 2+3=5                  13+21=34  
                       3+5=8                            21+34=55  

Cada término de la sucesión se denomina número de Fibonacci (se obtiene sumando los dos números precedentes en la sucesión).

Veamos la resolución del problema:

La primera pareja tiene descendencia el primer mes, así que en este mes ya hay 2 parejas. La primera pareja vuelve a tener descendencia el segundo mes, con Lo que ya

tendríamos 3 parejas. Al mes siguiente procrean la primera pareja y la que nació en primer mes (pues ya tienen dos

meses de vida), habiendo entonces 5 parejas. El cuarto mes procrea, además de esas dos, la que nació el segundo mes, es decir, nacen

tres parejas más, ya tenemos 8 parejas. Podemos seguir haciendo cuentas y obtenemos la siguiente tabla con las parejas que hay cada mes del año:

Meses 1 2 3 4 5 6 7 8 9 10 11 12
Parejas 2 3 5 8 13 21 34 55 89 144 233 377

La respuesta al problema es, por lo tanto, 377 parejas.

Hay muchos lugares en la naturaleza donde sorprendentemente aparece esta sucesión en forma curiosa. Si uno toma ciertas plantas y comienza a partir de la base del tallo a contar las hojas, verá que al llegar a una hoja que está directamente sobre La hoja donde se comenzó el conteo, habrá Llegado a un número de Fíbonacci. Lo mismo ocurre con una planta de lechuga o cebollas.

Las escamas de una piña aparecen en espiral alrededor del vértice. Si contamos el número de espirales de una piña, encontraremos que siempre es igual a uno de los números de la sucesión  de Fibonacci.

Los números de Fibonacci verifican, entre otras, las siguientes propiedades matemáticas:

a) todo número positivo se puede expresar como suma de números de Fíbonacci no consecutivos.

b) dos números consecutivos de Fibonacci son primos entre si.

c) hay solo dos cuadrados perfectos, el 1 y el 144 y dos cubos perfectos, el 1 y el 8.

Muchos otros problemas se dan en esta tercera sección, por ejemplo:

Una araña sube, por una pared, durante el día, un determinado número de cms. y baja, durante (a noche, otro determinado número de cms. ¿Cuántos días le lleva subir la pared?.

Un perro de caza, cuya velocidad se incremento aritméticamente, persigue a una liebre, cuya velocidad también se incremento aritméticamente. ¿Cuánto recorren hasta que el perro alcanza a (a liebre?.

También hay problemas referidos a los números perfectos, y problemas que involucran a series aritméticas y geométricas.

Vivió antes de la aparición de la imprenta, por lo que sus libros fueron escritos a mano, y la única forma de tener una copia era haciendo otra copia a mano.

Otra de sus publicaciones fue Practica Geometriae (Prácticas de Geometría) en 1220, que consta de 8 capítulos, dedicada a resolver problemas geométricos y trigonométricos, especialmente medida de áreas de polígonos y volúmenes de cuerpos.

En 1225 publica Flos, donde da una exacta aproximación de la solución de 10x + 2x2 + = 20. Este problema lo toma del libro de Álgebra de Omar Khayyam, quién lo resuelve como intersección entre un círculo y una hipérbola. Fibonacci prueba que la solución no es ni un número entero, ni una fracción ni la raíz cuadrada de una fracción. Por eso dice que lo resuelve con una aproximación, pero no indica el método que usó. La solución la da en base 60, que convertida al sistema decimal es 1,3688081075. Esta solución tiene 9 decimales exactos.

En el mismo año escribe Líber Quadratorum, que es un libro sobre Teoría de números. Plantea que los cuadrados se pueden expresar como suma de números impares usando la fórmula:n2 + (2n+1 )= =(n+1)2 .

 También se ocupa de los tripletas pitagóricas que obtiene de la siguiente forma:

Cuando quiero obtener dos cuadrados cuya suma de otro cuadrado tomo cualquier número cuadrado impar como uno de los dos números cuadrados y busco el otro cuadrado sumando todos los números impares entre el 1 y el número cuadrado impar elegido, excluido éste.

Por ejemplo, elijo el 9 como uno de tos cuadrados mencionados, el otro cuadrado lo obtengo sumando los números impares desde 1 hasta 9 excluido, es decir, 1+3+5+7=16. Así 9+16=25.

Su libro sobre aritmética comercial Di minor guisa se perdió, lo mismo que su comentario sobre el libro X de Los Elementos de Euclides, que contenía un tratamiento de los números irracionales, que Euclides había abordado desde el punto de vista geométrico.

Después de explicar los procesos algorítmicos o aritméticos usuales, incluida la extracción de raíces, pone todo el énfasis en problemas de transacciones comerciales, utilizando un complicado sistema fraccionario.

La República de Pisa le asigna un salario anual en 1240 debido a sus contribuciones a la enseñanza de sus ciudadanos y los aportes a la contabilidad.

Ideas Geniales de la Ciencia Grandes Ideas Cientificas Gay Lusac

Científicos Creadores de Grandes Ideas

Tales de Mileto  –   Pitágoras   –   Arquímedes  –   Demócrito  –   Galileo Galilei

Lavoisier –   Newton  –   Faraday   –   Joule  –  Linneo

OTROS CIENTÍFICOS GENIALES

JOSÉ LUIS GAY-LUSSAC (1778-1850): José Luis Gay-Lussac nació el 6 de diciembre de 1778 en Saint Léonard, Francia. Físico y químico, descubrió la ley de dilatación de los gases. En colaboración con Thénard demostró que el cloro, hasta entonces considerado como un ácido, no contenía oxígeno, pero supieron que era un compuesto. Davy demostró que era un elemento.

Una aportación de Gay-Lussac fue el descubrimiento de que si se enfría un volumen definido de gas bajo presión constante a una temperatura de O grados C., el gas se contrae un 1/273 por cada grado centígrado que la temperatura descienda. Ello querría decir que, en teoría, el gas dejaría de existir al llegar a los 273 grados bajo 0. En la realidad el gas primero se licúa y luego se solidifica.

Simultáneamente, otro científico francés, Charles, descubría él mismo fenómeno, que se conoce como ley de Charles o de Gay-Lussac, la que expresa que, si la presión de un gas es constante, su volumen será directamente proporcional a su temperatura absoluta. Este concepto fue el que originó una nueva escala de temperaturas, la de Lord Kelvin, que se emplea mucho en los laboratorios químicos. La temperatura de 173 grados C. bajo O se denomina O absoluto, punto en que cesa todo movimiento molecular.

Estudiando la relación entre la temperatura y la presión, propuso la teoría que cuando un gas se calienta, sus moléculas tienden a apartarse, ejerciendo mayor presión sobre las paredes del recipiente que lo contiene. Es decir, cuanto más aumente la temperatura mayor será la presión ejercida por el gas contra las paredes del recipiente. Esto se conoce como ley de Gay-Lussac.

En su colaboración con Thénard, Gay-Lussac mejoró los métodos del análisis orgánico, determinando la composición de numerosos elementos orgánicos. Su última investigación química se refirió al ácido prúsico, cuyo nombre químico es ácido cianhídrico, uno de los más potentes venenos conocidos. La fórmula de este ácido es HCN.

La determinación de la fórmula donde no aparece el oxígeno pero sí el hidrógeno, confirmó la teoría de que todos los ácidos contienen hidrógenos, pero no oxígeno como sostenía Lavoisier (oxígeno quiere decir generador de ácidos). Hay ácidos que pueden contener oxígeno, pero la acidez la determina el hidrógeno. Gay- Lussac murió en París el 9 de mayo de 1850, a la edad de setenta y dos años.

 HUMPHRY DAVY (1778-1829): Davy nació en Pensanse (Cornualles) sudoeste de Inglaterra, el 17 de diciembre de 1778. Hijo de un tallador de madera de bajos medios económicos, Davy entró el año 1795 de aprendiz de un cirujano. Como el muchacho tenía muchas inquietudes, decidió , simultáneamente instruirse a si mismo. Fue así como estudió idiomas, filosofía y, por supuesto, 

ciencias. En 1798 ingresó al Beddoes’s Pneumatic Insitute de Bristol en calidad de supervisor de experimentos.

En Beddoes conoció al gran poeta Samuel Coleridge de quien llegó a ser muy amigo. Coleridge fue una fuerte influencia sobre Davy y le inició en la filosofía de la ciencia de Kant. En 1800 Davy publicó un libro sobre el óxido nitroso (gas de la risa) que tuvo gran éxito, creándole una reputación.

Fue hacia 1806 que emprendió estudios sistemáticos de electroquímica. Ideó y desarrolló métodos de análisis fundados en el uso de corrientes eléctricas. Davy tenía el convencimiento de que la afinidad química tenía un fundamento eléctrico. Aplicando su procedimiento aisló el sodio, el potasio, el magnesio, calcio, bario, estroncio, boro, y silicio. Por aquellas fechas reinaba la teoría de Lavoisier de que el oxígeno era la base de los ácidos (oxígeno significa generador de ácidos). Davy refutó tal teoría y descubrió que los óxidos de los nuevos metales eran álcalis.

Davy se interesó siempre en las aplicaciones de la química y la física en la realidad de la industria. Fue un precursor de las aplicaciones de la química en la agricultura, dictando los primeros cursos sobre la materia en el mundo. Una obra suya, la lámpara de seguridad, alcanzó fama universal y salvó las vidas de miles de mineros.

A raíz de un horrible desastre minero en 1812, donde perecieron noventa y dos hombres y niños a raíz de una explosión a ciento ochenta metros bajo la superficie, los dueños de las minas plantearon a Davy el problema. Las velas y lámparas usadas por los mineros en ese tiempo producían con suma frecuencia el estallido del gas subterráneo, llamado “metano”.

Davy descubrió que ese gas no estallaba de modo violento en un tubo pequeño. Diseñó una lámpara en que el metano penetraba y salía por tubos muy pequeños. La lámpara tenía una malla de alambre que rodeaba la llama. La malla tenía 127 orificios por centímetros cuadrado, absorbía el calor del combustible que la hacía arder y lo conducía sin que el calor inflamara el gas que estaba fuera de la lámpara. La malla protectora se montaba sobre un bastidor de alambres verticales y se atornillaba en anillos de bronce, en el superior tenía un asa y el inferior estaba atornillado al cuello del depósito del combustible. La luz salía por una ventanilla de vidrio protegido.

Davy gozó en vida de una enorme celebridad y para la inmortalidad en su tumba está escrito el siguiente epitafio: “Summus arcanorum naturae indagator” (Sumo investigador de los arcanos de la naturaleza). Murió en Ginebra, Suiza, en 1829.

Biografia de Grandes Iconoclastas Personajes que cambiaron la historia

Isaac Newton  –  Louis Pasteur   – Charles Darwin  – Sigmund Freud  – Albert Einstein

Cuando Einstein enunció que E=mc2 el mundo no cambió. No se había inventado nada. El modo en que se comportaban las partículas no se alteró. Por ese motivo, el universo permaneció exactamente como estaba. Pero nosotros cambiamos. Cuando la complejidad de la física cuántica se reveló a las mentes inquisitivas, la visión humana del universo se alteró para siempre. Átomos, electrones, y partículas subatómicas no eran distintos de como habían sido durante miles de millones de años —la única diferencia real fue que supimos de ellos.

La intención es revelar los logros principales de cada persona, pero reconociendo que éstos están soportados por muchos otros descubrimientos. En conjunto, estos pensadores tenían dos ambiciones principales. Aquellos como Edwin Hubble y su amigo, simplemente querían descubrir lo que existe y cómo encaja todo. Por otro lado, los inventores científicos como James Watt Thomas Edison se lanzaron a manipular los procesos fundamentales del universo para crear herramientas y técnicas que hicieran la vida un poco mejor.

 Isaac Newton fue descrito por su maestra como vago y distraído. Thomas Edison hacía novillos. El psiquiatra John Watson era violento a veces. En restropectiva podemos ver que, probablemente, sólo eran demasiado listos para interesarse por una enseñanza común, y demasiado creativos para aceptar información sin sin cuestionarla. Aunque otros, como el explorador de gases Robert Boyle, eran niños  enfermizos y tenían muy poca educación formal. Son ejemplos que deberían alentar cualquier  padre que ve a su hijo batallando en el colegio. Es  interesante notar cómo muchos de los grandes logros ocurrieron con un telón de fondo de guerra, conflictos, e inestabilidad política. Los antiguos filósofos griegos, como Sócrates fueron en parte impulsados por la necesidad de dar sentido a un mundo de peleas, y los videntes de física de partículas del siglo XX, como Heisenberg y Niels Bohr, vieron su ciencia utilizada como armamento. Debido a su inteligencia o a su específica especialización, otros como Platón y Henry Ford se encontraron involuntariamente en la línea de fuego de las autoridades. Aunque otros, como Edwin  Schrodinger, experimentaron la vida, literalmente, en la línea de fuego.

 Mucha gente conoce el nombre de Charles Darwin, pero muy pocos reconocen a Alfred Wallace. Ambos alcanzaron la misma conclusión sobre la evolución casi simultáneamente, pero Darwin tenía dinero y amigos políticos, y viviendo en Inglaterra, ganó la carrera para publicar sus ideas. Algunos, como el padre de la píldora anticonceptiva Carl Djerassi ganaron fama debido a que su descubrimiento encajó en una marea de cambio socio-político. Otros incontables científicos y exploradores de la mente y el cuerpo  probablemente tuvieron grandes ideas, pero no llegaron a  ningún lado porque estaban demasiado por delante de su tiempo.

El boson de Higgs

El Boson de Higgs

Por otro lado, la idea de transmutar una sustancia en otra no era disparatada, y siglos más tarde los científicos modernos pudieron llevarla a cabo en sus laboratorios.