Implicaciones de la teoría de la relatividad

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 “Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico”.

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la “teoría de la relatividad”, la cual amplió en 1916 (“teoría general de la relatividad”). En 1912 formuló la “ley de los efectos fotoeléctricos”. A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 “Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía”.
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como “secretario perpetuo” de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la “teoría de los cuantos”, la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 “Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel”

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su “Tratado sobre la radiactividad” y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: “Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre”.
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó “rayos X”, porque desconocía su naturaleza (también conocidos en la época como “rayos Róntgen”).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: “Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica”.
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Historia del Progreso Tecnológico En El Uso de la Energía

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía. El proceso fue larguísimo. Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga. Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas. Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia. 3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento. 1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  “Principia”,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

Naturaleza Ondulatoria de la Materia

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA: Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Funcionamiento de Olla a Presión Historia de Papin Denis

Funcionamiento de Olla a Presión
Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, “inventor del reloj de péndulo”, como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la “bomba al vacío”, al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el “digestor”, o “baño maría de rosca”, que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: “Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida”, y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Ciencia y Tecnología en la Sociedad
Su influencia en la vida diaria

La vida será sofisticada y eficiente. ¿Cuáles serán los chiches de la nueva era? Valerie, el androide doméstico dotado de inteligencia artificial —y buenas piernas—, será uno. Nos dará una mano con la limpieza y llamará a la policía ante urgencias.

Otra aliada de las tareas será Scooba, la aspiradora de iRobot, que con sólo apretar un botón fregará los pisos hasta los rincones más recónditos. Asimismo, la Polara de Whirlpool nos facilitará las cosas.

Combina las cualidades de una cocina convencional y una heladera: será posible dejar un pollo en el horno para que se ase en el horario programado.

El gatito Cat de Philips habitará el hogar del mañana. Genera expresiones faciales— felicidad, sorpresa, enojo, tristeza— y será compinche de los chicos.

¿Qué habrá de nuevo a la hora de comer? “Se elegirán alimentos que hagan bien a la piel y al organismo. De todas formas, no faltará quien ingiera por elección o comodidad, comida chatarra mientras lea una revista de salud y se prometa: “mañana empiezo el régimen”, opina la cocinera Alicia Berger. “Además, la gente se preocupará por el origen y calidad de los alimentos, y se revalorizará lo casero”, revela.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaY al irse a la cama, será posible introducirse en una que soporta ataques terroristas o desastres naturales —de Quantum Sleeper— o portar un reloj pulsera Sleeptracker (foto izquierda) que vía sensores, detecta

nuestro sueño superficial y justo ahí hace sonar la alarma para que el despertar sea lo menos fastidioso posible.

¿Y el sexo para cuándo? Mal que nos pese, cada vez tendremos menos ganas, tiempo y pasión. “Vamos hacia el sexo virtual por sobre el real al menos en las grandes ciudades del mundo”, confirma el doctor Juan Carlos Kusnetzoff, director del programa de Sexología Clínica del Hospital de Clínicas, quien adelanta que para levantar el ánimo —y algo más— se desarrollarán nuevas píldoras. “La industria farmacéutica desea lograrlo a toda costa”, agrega.

Ocio y tiempo libre para todos los gustos

En el campo de las nuevas tecnologías, la convergencia de la telefonía móvil y el hogar será un hecho. “El móvil podría permitir el acceso a los diferentes elementos que se quieran controlar, como un control remoto universal. Además se crearían nuevos sensores para avisarnos de situaciones que requieran nuestra atención y cámaras de seguridad para ver desde el teléfono lo que sucede en otro lugar”, cuenta Axel Meyer, argentino que desde el 2000 trabaja en el centro de diseño de Nokia Desing, en Finlandia.

Y agrega “Los teléfonos con doble cámara ya permiten hacer videollamadas. Y también podremos ver la emoción del otro mientras miramos la misma película o un gol de nuestro equipo”, explica.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaEn robótica, los avances irán a gran velocidad. Ya se está desarrollando en la Universidad de Tokio la piel de robot que permitirá a estas criaturas adquirir el sentido del tacto. Y eso no es todo.

Se podrá bailar con ellos. El Dance Partner Robot es la compañera de baile ideal. Predice los movimientos de su coequipper y no le pisa los pies!

Para momentos de ocio, el turismo estará preparado para el disfrute. Pero, ¿se podría pensar en la pérdida de vigencia del agente de viajes tradicional? “Internet agiliza muchos aspectos de la gestión.

Hay un antes y un después en la forma de hacer turismo, pero, ¿quién se atreve a viajar con su familia a destinos exóticos o países desconocidos sin un asesoramiento de confianza?”, se pregunta Ricardo Sánchez Sañudo, director de la revista Tiempo de Aventura, quien sostiene que ante la coyuntura mundial —terrorismo, inseguridad y desastres climáticos, entre otros—, la Argentina crecerá como destino.

“Cuanto, más expuesto a estas amenazas esté el resto del mundo, tendremos ventajas comparativas que podremos aprovechar al máximo si conseguimos mantener esas amenazas fuera de nuestras fronteras, o al menos, razonablemente controladas”, manifiesta.

Por otra parte, la vida al aire libre será la estrella. “Vida sana, naturaleza viva y desarrollo sustentable son principios insoslayables cuando se mira hacia adelante, y tanto deporte como turismo aventura son dos de sus mejores herramientas”, analiza.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaLos amantes del deporte encontrarán aliados perfectos para seguir ganando. El de los tenistas es la raqueta Magnetic Speed de Fischer, que permite mejores movimientos y mayor velocidad en los tiros.

Los que prefieren la música se sorprenderán con instrumentos como el Hand Roll Piano de Yama-no Music, con teclado de silicona flexible.

Trasladarnos será más simple, cómodo y ecológico. Y ya hay algunos adelantos. Tweel de Michelin es una llanta sin aire. Así es que… la despedirse de las gomas pinchadas!

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Por otro lado, acaso debido al tránsito en las ciudades, los transportes individuales serán protagonistas. Como la bicicleta Shift, ideal para los chicos. Les permite adquirir estabilidad gradual sin necesidad de las dos rueditas.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Futuro saludable:

Que la salud avanza a pasos agigantados, no es una novedad. La noticia es que estará al alcance de todos en los próximos años.

Las cirugías estéticas, se popularizarán y masificarán. La lipoescultura será la más pedida, según el doctor Raúl Banegas, cirujano plástico, miembro titular de la Sociedad de Cirugía Plástica de Buenos Aires, debido a que “La demanda social de ser cada vez más lindos, delgados y jóvenes, se acrecienta”. Por otro lado, serán comunes las inyecciones de líquidos —fosfatidil colina— tendientes a disolver la grasa corporal, sin cirugía. En cuanto a rellenos, la toxina botulínica es irremplazable aunque sí se espera que se sintetice de manera tal que dure más tiempo —hoy, de 3 a 6 meses—.

“En cuanto a rellenos definitivos habrá infinidad de sintéticos. Lo que sí parece ser prometedor, aún en fase de investigación, es el cultivo del propio colágeno. En sólo unos meses se podrían obtener en laboratorio, varias jeringas, lo que descartaría toda posibilidad de reacción”, adelanta.

En Neurociencias, será posible el neuromarketing a partir de tomografías PET —por emisión de positrones—, aunque “en lo inmediato son técnicas caras y requieren de un sofisticado análisis de los datos”, anticipa el doctor Facundo Manes, director del Instituto de Neurología Cognitiva —INECO—. En lo que a neuroplastieidad se refiere, ya no diremos más aquello de que “neurona que se muere, se pierde”, viejo postulado que paralizó casi completamente durante décadas la investigación en esta área, según el especialista. Y el conocer acerca de qué pasa en la cabeza de un adicto u obeso permitirá complementar con medicamentos aquello que químicamente requiera cada cerebro.

“Conocer las bases cerebrales de un trastorno neuropsiquiátrico ayuda a localizar los neurotransmisores —mensajeros entre las neuronas— involucrados en una enfermedad; de esta manera se podría investigar una posible solución farmacológica a esa determinada condición médica”, comenta. En el campo de la reproducción asistida, las novedades son infinitas. “Cada vez se podrán hacer más y mejores cosas en pos de mejorar las chances de tener un chico en brazos y no un embarazo que no pudo ser”, adelanta la doctora Ester Polak de Fried, presidente de CER Instituto Médico, directora del departamento de medicina reproductiva de la institución.

“Los estudios genéticos, tanto de gametas como de óvulos fertilizados —preembriones—, que permiten transferir al útero materno únicamente los sanos, se convertirán en técnicas habituales para aquellas mujeres que sufren abortos a repetición, por ejemplo. En el área de la biología molecular, será posible encontrar marcadores génicos —detectan chances de reproducción—, tanto en los óvulos como en los espermatozoides para poder elegir los que tienen capacidades evolutivas, y así disminuir la cantidad de óvulos a poner a fertilizar y la problemática de tener gran cantidad de embriones criopreservados”, especifica quien es officer de la International Federation of Fertility Societies —IFFS—, que nuclea a 54 países.

Construcción, arte y moda

Uno de los cambios en lo que respecta a la construcción, al menos en Argentina, será la creciente conciencia ecológica y de cuidado del medio ambiente. “El futuro de La arquitectura está definido en su responsabilidad ecológica tanto con eL medio ambiente como con el medio social. No hay que explicar de qué manera el proyecto arquitectónico influye en el medio ambiente. La decisión de su tecnología y su consecuencia en el futuro mantenimiento conforman una huella ecológica que deberá ser cada vez más analizada y respetada”, analiza el arquitecto Flavio Janches.

En cuanto a los materiales, “al menos en nuestro país, el ladrillo y la piedra, el hormigón y el revoque son materiales que no creo que se dejen de utilizar”, opina. La moda tendrá sus cambios, aunque más bien tendrán que ver con el cosechar la siembra, al menos para los diseñadores argentinos. “La gente va a reivindicar el diseño y pagarlo por lo que vale. Hoy por hoy, no existe esa conciencia, como en Estados Unidos, Europa o Japón”, asegura la diseñadora Jessica Trosman.

En cuanto al arte, en el futuro abandonará un poco los museos y las galerías para darse una vuelta por las calles. Uno de los referentes de este movimiento es Julian Beever, artista inglés conocido por su trabajo en 3D, en veredas y pavimentos de Inglaterra, Francia, Alemania, Australia, Estados Unidos y Bélgica.

Y mientras se espera el futuro que se viene, a brindar por este 2006 que sí es inminente!

Fuente Consultada: Revista NUEVA Por Laura Zavoyovski (31-12-2005)
Ir a su sitio web

Pasos del Metodo Cientifico Etapas Metodo Experimental Caracteristicas

Pasos del Método Científico o Experimental

El método científico o experimental es una secuencia lógica de pasos que se siguen para que el trabajo del químico tenga validez. Luego de una observación exhaustiva y reiterada del fenómeno, surge el planteo del problema a investigar. El científico enuncia, según el análisis “a priori” del problema, cuál sería, a su criterio, la hipótesis, es decir, la respuesta más probable a la cuestión.

Antes efectúa una recopilación de datos, por ejemplo de trabajos de otros investigadores relacionados con el tema. A partir de allí, comienza a diseñar y comprobar la veracidad de la hipótesis. Si la hipótesis se cumple, el científico puede arribar a conclusiones de valor predictivo. Es decir que frente al mismo planteo puede anticipar cuál será la respuesta.

Muchas veces ocurre que la hipótesis no se cumple y debe reformularse. La validez de una o varias hipótesis permite, en muchos casos, enunciar leyes o teorías universales.

En la actualidad, el planteo de un problema científico surge a veces del análisis de trabajos anteriores referidos al tema. Éstos dejan casi siempre algún punto sin resolver, que es observado y tomado como punto de partida de una nueva investigación.

La ciencia sólo es posible cuando existe la libertad de cuestionar y de dudar de lo que siempre se ha considerado verdadero, y cuando ella misma es capaz de abandonar viejas creencias si contrarían los nuevos descubrimientos.

A modo de sintesis antes de entrar a explicar el método, vamos a indicar la secuencia ordenada de pasos para lograr el estudio científico de un fenómeno determinado. Podemos decir que hay 10 pasos fundamentales, y que mas abajo se explicarán, a saber:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO,

PASO 2. LA BÚSQUEDA DE INFORMACIÓN,

PASO 3. LA FORMULACIÓN DE HIPÓTESIS,

PASO 4. LA COMPROBACIÓN EXPERIMENTAL,

PASO 5. EL TRABAJO EN EL LABORATORIO,

PASO 6. EL TRATAMIENTO DE LOS DATOS,

PASO 7. EL ANÁLISIS DE LOS FACTORES,

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS,

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS,

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS

INTRODUCCIÓN: OBSERVACIÓN Y EXPERIMENTACIÓN

La ciencia comienza por observar, observación realizada con la máxima exactitud y la mayor frecuencia posible. Sólo así pueden discernirse claramente las características del problema que se estudia y ponerse en evidencia las incógnitas que plantea.

Luego de hacer las observaciones adecuadas, el paso siguiente es desarrollar alguna explicación de lo que se ha visto. Cada explicación recibe el nombre de hipótesis y por tanta es normal que haya varias hipótesis aparentemente encuadradas en los hechos observados. Todas ellas surgen por un proceso mental de deducción que, en cierto sentido no sería más que un ejercicio de imaginación.

En la vida diaria la gente muy a menudo se conforma con suposiciones ¡sólo porque las hace ella! En la ciencia es necesario suponer todas las explicaciones aceptables de los hechos, para luego seleccionar las mejor orientadas hacia la investigación propuesta.

Esta selección se efectúa de acuerdo con otro proceso mental estudiado por la Lógica, conocido por deducción. Cada hipótesis se examina por turno para ver qué consecuencias implicaría en caso de ser cierta, qué ocurriría si fuera correcta. Es como obligar a la hipótesis a que se pronuncie.

metodo experimetal

Luego, una etapa crítica del método científico: la verificación, o sea la comprobación de las diversas hipótesis mediante nuevas observaciones. Éste es un proceso real y concreto, manual y sensorio.

Siempre que sea posible, las comprobaciones se hacen en forma de experimentos, es decir, siempre por control del investigador. Si la hipótesis que se intenta probar no nos anticipa los acontecimientos registrados por la experimentación se la considera inútil y se la descarta. Si, en cambio, resultara correcta, sólo provisionalmente se la consideraría verdadera, esto es, mientras no aparezca algún hecho nuevo que obligue a modificarla.

Cuando las hipótesis no pueden ser comprobadas en las estrictas condiciones de un experimento habrá que esperar el resultado de nuevas experiencias cuando la evolución de los fenómenos naturales lo permita. En astronomía, por ejemplo, no es posible obligar a los cuerpos celestes a moverse y a ubicarse en situación de demostrar alguna hipótesis particular. pero, cuando se dan esas exposiciones, es posible controlar la efectividad de las hipótesis que se habían formulado.

A medida que se acumulan observaciones, sea durante experimentos o no, pueden aparecer casos que muestren la debilidad de la hipótesis anteriormente aceptada. Entonces resulta necesaria la formulación de otra hipótesis y se repite todo el procedimiento de nuestro método científico como si se tratara de un círculo, quizás una espiral, pues este nuevo ciclo se desarrolla en un nivel de mayor conocimiento.

Esto nos introduce en la idea de que la “verdad” científica es sólo relativa; es una aproximación y será abandonada y reemplazada por otra “verdad” nueva y mejor, cada vez que resulte necesario. Esto explica lo que para algunos es el obstáculo más grande referente a la ciencia: que sus conclusiones ¡no son definitivas! Los científicos están siempre dispuestos y aun entusiastas para aceptar nuevas explicaciones si éstas se acercan más a los hechos conocidos.

La verdad científica, entonces, no es definitiva. Representa las etapas alcanzadas en cada oportunidad en la búsqueda del conocimiento. El nivel de éxito obtenido en esta búsqueda se medirá siempre por el grado de correlación que exista entre teoría y realidad. La verdad científica representa lo mejor que pudo hacerse en un momento determinado. No tiene autoridad para juzgar futuras investigaciones en el campo en que se aplica.

La aceptación de una hipótesis científica como cierta no surge de su elegancia ni de la sinceridad o entusiasmo con que ha sido presentada; tampoco reposa en factor personal alguno, como podría ser respecto de nuestra propia hipótesis o de la de alguien a quien respetamos.

La única razón válida para aceptar una hipótesis como cierta es que apoyada en hechos conocidos, pueda anticipar otros. Esto es bastante distinto de la idea de verdad que se aplica en otros órdenes de la vida, y es una de las características distintivas de la actitud científica.

https://historiaybiografias.com/linea_divisoria5.jpg

LOS PASOS DEL MÉTODO CIENTÍFICO-EXPERIMENTAL:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO
Una vez planteado el fenómeno que se quiere estudiar, lo primero que hay que hacer es observar su aparición, las circunstancias en las que se produce y sus características. Esta observación ha de ser reiterada (se debe realizar varias veces), minuciosa (se debe intentar apreciar el mayor número posible de detalles), rigurosa (se debe realizar con la mayor precisión posible) y sistemática (se debe efectuar de forma ordenada).

PASO 2. LA BÚSQUEDA DE INFORMACIÓN
Como paso siguiente, y con objeto de reafirmar las observaciones efectuadas, deben consultarse libros, enciclopedias o revistas científicas en los que se describa el fenómeno que se está estudiando, ya que en los libros se encuentra e conocimiento científico acumulado a través de la historia. Por este motivo, la búsqueda de información } la utilización de los conocimientos existentes son imprescindibles en todo trabajo científico.

PASO 3. LA FORMULACIÓN DE HIPÓTESIS
Después de haber observado el fenómeno y de haberse documentado suficientemente sobre el mismo, el científico debe buscar una explicación que permita explicar todas y cada una de las características de dicho fenómeno.

Como primer paso de esta fase, el científico suele efectuar varias conjeturas o suposiciones, de las que posteriormente, mediante una serie de comprobaciones experimentales, elegirá como explicación del fenómeno la más completa y sencilla, y la que mejor se ajuste a los conocimientos generales de la ciencia en ese momento. Esta explicación razonable y suficiente se denomina hipótesis científica.

PASO 4. LA COMPROBACIÓN EXPERIMENTAL
Una vez formulada la hipótesis, el científico ha de comprobar que ésta es válida en todos los casos, para lo cual debe realizar experiencias en las que se reproduzcan lo más fielmente posible las condiciones naturales en las que se produce el fenómeno estudiado. Si bajo dichas condiciones el fenómeno tiene lugar, la hipótesis tendrá validez.

instrumentos de presley cientifico

Lámina de «Observations on differents kinds of air» del gran científico Joseph Priestley, mostrando uno de sus experimentos para demostrar los efectos de la combustión, putrefacción y respiración en una planta de menta  y en ratones.

PASO 5. EL TRABAJO EN EL LABORATORIO

Una de las principales actividades del trabajo científico es la de realizar medidas sobre las diversas variables que intervienen en el fenómeno que se estudia y que son susceptibles de poder medirse. Si te fijas, en el experimento anterior no se ha podido tomar ninguna medida, por lo cual es conveniente repetir la experiencia en un lugar donde pueda tomarse, es decir, en el laboratorio.

Estas experiencias realizadas en los laboratorios se denominan experiencias científicas, y deben cumplir estos requisitos:

a) Deben permitir realizar una observación en la que puedan tomarse datos.

b) Deben permitir que los distintos factores que intervienen en el fenómeno (luminosidad, temperatura, etc.) puedan ser controlados.

c) Deben permitir que se puedan realizar tantas veces como se quiera y por distintos operadores.Habitualmente, en ciencias experimentales, los trabajos de laboratorio permiten establecer modelos, que son situaciones o supuestos teóricos mediante los que se efectúa una analogía entre el fenómeno que ocurre en la Naturaleza y el experimento que realizamos.

PASO 6. EL TRATAMIENTO DE LOS DATOS
Las medidas que se efectúan sobre los factores que intervienen en un determinado fenómeno deben permitirnos encontrar algún tipo de relación matemática entre las magnitudes físicas que caracterizan el fenómeno que se estudia. Para llegar a esa relación matemática, los científicos suelen seguir dos pasos previos: el análisis de los factores y la construcción de tablas y de gráficos.

PASO 7. EL ANÁLISIS DE LOS FACTORES
El estudio en profundidad de un fenómeno requiere en primer lugar la determinación de todos los factores que intervienen en él. Para que ese estudio se realice en la forma más sencilla, se fija una serie de magnitudes que no varían (variables controladas) y se estudia la forma en que varía una magnitud (variable dependiente) cuando se produce una variación de otra magnitud (variable independiente).

Así, por ejemplo, si lo que queremos es estudiar el alargamiento que experimenta un resorte cuando colgamos diversas pesas de uno de sus extremos, hay un conjunto de magnitudes que podemos considerar invariables (la temperatura del recinto donde hacemos el experimento, la presión atmosférica dentro del mismo, la humedad relativa del aire, etc.), que corresponden a las variables controladas. En este caso, la longitud del alargamiento del resorte será la variable dependiente, y el peso que colgamos de su extremo será la variable independiente.

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS
La construcción de tablas consiste en ordenar los datos numéricos obtenidos sobre las variables independiente y dependiente. Siempre se han de especificar las unidades en las que se miden dichas variables, para lo cual se utilizan los paréntesis a continuación de sus nombres.

En el caso del resorte, la tabla podría ser así:
La representación gráfica consiste en representar los datos de las medidas en un sistema de ejes cartesianos, donde normalmente la variable independiente se hace corresponder con el eje X, mientras que la variable dependiente se hace corresponder con el eje Y.

Se llama ajuste de la gráfica al procedimiento mediante el cual se determina la línea que pasa por los puntos que se han representado o la más cercana a ellos.

En la mayoría de los casos, las gráficas que se obtienen son líneas rectas, lo que indica que la relación entre las magnitudes físicas representadas es de la forma y = k • x. donde k es una constante. En otros casos, la relación entre ambas magnitudes es de tipo parabólico, lo que matemáticamente representa que y = k • x2; o de tipo hiperbólico, cuya formulación es de la forma x • y = k.

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS
El análisis de los datos y la comprobación de las hipótesis lleva a los científicos a emitir sus conclusiones, que pueden ser empíricas, es decir, basadas en la experiencia, o deductivas, es decir, obtenidas tras un proceso de razonamiento en el que se parte de una verdad conocida hasta llegar a la explicación del fenómeno.
Una vez obtenidas dichas conclusiones, éstas deben ser comunicadas y divulgadas al resto de la comunidad científica para que así sirvan como punto de arranque de otros descubrimientos, o como fundamento de una aplicación tecnológica práctica .

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS
El estudio científico de todos los aspectos de un fenómeno  natural lleva a la elaboración de leyes y teorías.

Una ley científica es una hipótesis que se ha comprobado que se verifica.

Una teoría científica es un conjunto de leyes que explican un determinado fenómeno.

Así, por ejemplo, la hipótesis comprobada de que el are iris se forma debido a la refracción que experimenta la li al atravesar las gotas de agua de la lluvia, es una ley que s enmarca dentro de un conjunto de leyes que rigen otros fenómenos luminosos (reflexión, dispersión, etc.). Este con junto se conoce como teoría sobre la luz.

Tanto las leyes como las teorías deben cumplir los siguientes requisitos:

1. Deben ser generales, es decir, no sólo deben explica casos particulares de un fenómeno.
2. Deben estar comprobadas, es decir, deben estar avaladas por la experiencia.
3. Deben estar matematizadas, es decir, deben pode expresarse mediante funciones matemáticas.

Las teorías científicas tienen validez hasta que son incapaces de explicar determinados hechos o fenómenos, o hasta que algún descubrimiento nuevo se contradice con ellas, a partir de ese momento, los científicos empiezan a plantearse la elaboración de otra teoría que pueda explicar eso; nuevos descubrimientos.

Rene Descartes

René Descartes creó la geometría analítica, también denominada «geometría cartesiana», en la que los problemas geométricos pueden traducirse a forma algebraica. Se trataba de un método extremadamente poderoso para resolver problemas geométricos y, a la postre, también dinámicos (el problema del movimiento de cuerpos), un método que conservamos más de tres siglos después.En más de un sentido la contribución de Descartes preparó el camino para el gran descubrimiento de Newton y Leibniz: el del cálculo diferencial (o infinitesimal) e integral, el universo de las derivadas y las integrales; un instrumento  incomparable para la indagación matemática y física.

Instrumentos de Boyle
Lámina donde se muestran los instrumentos del laboratorio de Boyle

La divulgación científica: Al científico no le basta con ver, debe convencer. Un descubrimiento científico sólo adquiere importancia si es comunicado en fomia inteligible. Las primeras publicaciones que se registran referidas a la Química provienen de los alquimistas.

Estos químicos de la Edad Media, que procuraban transmutar (convertir) cualquier metal en oro, escribieron dos tipos de manuscritos: míos, puramente prácticos, y otros, donde intentaban aplicar las teorías de la naturaleza de la materia a los problemas alquímicos. Aunque en ambos casos apelaron a una mezcla de magia y ciencia como metodología para sus investigaciones, muchas técnicas allí descriptas siguen utilizándose en la actualidad.

En 1597 un alquimista alemán, Andreas Libau (1540-1616), conocido como Libavius, escribió el que se considera el primer libro de Química, Alchemia, que resumía los hallazgos medievales en esta materia sin caer en el misticismo.

Recién a partir del siglo XVIII las publicaciones de libros y revistas se convirtieron en el vehículo usual para la transmisión científica.

La primera revista del mundo dedicada exclusivamente a la Química fue Annales de Chimie, de 1789. La versión española se publicó dos años después, en Segovia, y fue dirigida por Joseph Proust.

Entre los libros de la época cabe destacar el famoso Traite Élementaire, escrito por Lavoisier en 1789, en el que puede advertirse hasta qué punto Lavoisier se había adelantado a la ley de los volúmenes de combinación, enunciada veinte años después por Gay-Lussac.

En sus páginas se puede leer con claridad que la reacción para la formación de agua requiere exactamente dos volúmenes de hidrógeno para reaccionar por completo con un volumen de oxígeno. Sólo después de veinte años Gay-Lussac retoma estas ideas y, mediante el estudio de la reacción entre el cloro y el hidrógeno, deduce su ley. ¿Pero por qué Lavoisier no llegó a enunciar la ley de los volúmenes de combinación?.

Las respuestas probables a esta pregunta son dos. Primero, Lavoisier fue guillotinado apenas cinco años después de la publicación de su libro; segúndo, hasta el momento de su muerte el cloro no había sido identificado como tal.

En la actualidad, las publicaciones científicas son muy numerosas y se renuevan constantemente. Y, además, resulta fundamental el aporte de los medios informáticos. Gracias a ellos se ha logrado integrar textos, imágenes, sonidos y movimientos, y también es posible el intercambio de trabajos y opiniones científicas de grupos procedentes de todas partes del mundo.

https://historiaybiografias.com/linea_divisoria5.jpg

CONOCIMIENTO CIENTÍFICO: La ciencia puede extender enormemente el alcance de los sentidos humanos, como podemos ver en las páginas de este libro, que se ocupan de algunos de los extraordinarios instrumentos científicos disponibles hoy.

También puede aumentar su capacidad de prever los acontecimientos. Esto es de gran utilidad para el hombre porque le evita eventuales dificultades y porque le permite obtener los resultados previstos. De este modo la ciencia aumenta enormemente los medios a disposición del hombre para la consecución de sus fines, sean éstos constructivos o destructivos.

La ciencia, empero, no puede ocuparse de lo inobservable. Puede ocuparse de los electrones, que no son visibles directamente, porque éstos dejan huellas observables en la cámara de Wilson.

Pero aunque la ciencia se interese por los electrones no puede ocuparse de proposiciones sobre ángeles aunque se diera el caso de que fueran ángeles guardianes quienes orientaran nuestra conducta individual. Como por definición los ángeles no pertenecen al mundo natural, es evidente que no pueden ser estudiados por el método científico.

Tampoco reemplaza la ciencia a la sabiduría. No puede juzgar entre los distintos fines que nos fijamos individual o colectivamente, aunque puede darnos los medios para llegar a ellos con mayor facilidad. Por lo menos hasta el presente la ciencia no está en condiciones de decirle al hombre qué es lo mejor para ver, lo mejor para gustar. Algunos piensan que jamás podrá hacerlo aunque el conocimiento científico a menudo nos predispone a las consecuencias de nuestras elecciones.

La ciencia no es una mera acumulación de conocimientos enciclopédicos. Tampoco es exactamente sentido común —por lo menos en lo que se refiere a algunas de sus conclusiones— como nos habremos percatado luego de leer los artículos sobre la naturaleza física del mundo en que vivimos.

Es, sin embargo, completa y totalmente “sensata” en su dependencia del método de ensayo y error. No es un cuerpo de doctrina que se apoye en la autoridad de personas. No es la mera búsqueda de ingeniosos aparatos aunque éstos resulten una consecuencia del avance del conocimiento científico.

La ciencia es una manera de preguntar. Es un método para avanzar en el conocimiento de fenómenos que pueden ser observados y medidos. Es una aventura en lo desconocido, en pos de la comprensión buscada, comprensión a la que llegaremos mediante ensayos y errores, operando siempre que sea posible en las condiciones controladas de un experimento.

https://historiaybiografias.com/linea_divisoria5.jpg

PARA SABER MAS…
EXPERIMENTO CIENTÍFICO

Un buen ejemplo de investigación científica mediante experiencias sensatas  es el modo en que Galileo estudió la fuerza de gravedad, llegando a descubrir la ley del movimiento uniformemente acelerado de los graves: un mentís clamoroso a la teoría de Aristóteles, que consideraba la velocidad de la caída proporcional al peso.

El plano inclinado que construyó para el estudio del movimiento gravitacional es relativamente simple desde el punto de vista tecnológico: consiste en una viga de seis metros de largo, de buena madera (para impedir que se combe) y que puede inclinarse a voluntad, dotada de una acanaladura cuidadosamente alisada para reducir al mínimo la fricción de las bolas.

Este aparato tan sencillo tiene ya las características de un moderno instrumento científico, porque permite modular a voluntad cualquier parámetro notable de la experiencia. La inclinación, por ejemplo, puede reducirse haciendo más lentos los tiempos de caída, o bien aumentarse hasta rozar la verticalidad (de este modo, la caída libre se convierte en un simple caso límite).

metodo cientifico

El primer plano inclinado de Galileo estaba provisto de campanillas
para señalar los tiempos de caída de la bola.

Al principio, el científico afrontó el problema central (es decir, la comprobación exacta de los tiempos de caída) situando en el plano inclinado a intervalos regulares unas campanillas, de modo que sonasen al paso de la bola. Galileo, además de haber estudiado música, era también un avezado intérprete y contaba con la sensibilidad de su oído, muy entrenado para percibir ritmos e intervalos sonoros. Pero se trataba evidentemente de una solución aún primitiva, insuficiente para llegar a una cuantificación precisa de los tiempos.

El ingenio de Galileo resolvió brillantemente el problema con la construcción de un reloj de agua. Hacía coincidir el comienzo de la caída del grávido con la apertura de un grifo colocado bajo un tanque (mantenido a presión constante en todas las mediciones).

Al final de la caída, bastaba con cerrar el grifo y ocuparse de pesar el líquido almacenado; de este modo transformaba las cantidades de tiempo en cantidades de peso, mensurables y cotejables con gran precisión. Galileo descubrió así que, aunque una mayor inclinación del plano hacía aumentar la velocidad de caída, la relación entre espacios recorridos y tiempos empleados se mantenía constante para cualquier inclinación (por lo tanto, también en el caso límite de la caída libre).

Descubrió sobre todo que esta aceleración no depende del peso, en contra de lo que afirmaba Aristóteles.

Revolucion cientifica Trabajo de Galvani

Grabado mostrando diferentes experimentos de Luigi Galvani (Viribus Electricitatis in Motu Musculari Commentarius [Comentarios relativos a los efectos de la electricidad sobre el movimiento muscular] 1791) acerca de los efectos de la electricidad en ranas y pollos.

La observación, la experimentación y la construcción de teorías y modelos

La recolección de datos es una empresa importante para sostener cualquier trabajo científico. Estos datos pueden ser obtenidos por la observación sistemática de situaciones espontáneas o por la experimentación, que consiste en provocar el fenómeno que se quiere estudiar. Lo importante es ver cómo estos datos se utilizan para formular teorías o modelos.

En la actualidad, casi todos los filósofos de la ciencia están de acuerdo en que los datos por sí solos no explican nada, e incluso hay muchos que ponen en duda que existan datos puros, ya que la observación, sea espontánea o provocada, está siempre condicionada por el conocimiento del observador.

Así, por ejemplo, si un químico se encuentra cerca de una industria que produce acero, olerá dióxido de azufre y podrá inferir qué le puede ocurrir a su cuerpo o al ambiente ante la presencia de esta sustancia. En cambio, un niño que pase por el mismo lugar solo percibirá olor a huevo podrido. Como se puede notar, tanto uno como otro participan de la misma situación, pero la interpretación varía enormemente en función de los conocimientos que cada uno posee acerca del fenómeno que observan.

Además del papel decisivo que tienen los conocimientos del observador, no se debe olvidar que muchas de las observaciones que se realizan se hacen en forma indirecta, es decir, a través de la utilización de instrumentos, indicadores, etcétera, que, en muchos casos, distorsionan el fenómeno.

En la experimentación, el fenómeno es preparado por el mismo investigador, quien fija las condiciones, el sitio y el momento de su realización y, además, puede repetirlo numerosas veces.

Dentro de las ciencias de la vida, la mejor manera de poner a prueba las teorías que se relacionan con el funcionamiento de los organismos es con la ayuda de experimentos. Pero hay ciencias en las que los experimentos no son posibles, como es el caso de las ciencias que estudian la historia de los seres vivos (evolución, Paleontología), en las cuales es preciso hacer observaciones adicionales para corroborar una hipótesis.

Otra forma de comprobar una teoría en Biología consiste en utilizar datos provenientes de fuentes distintas; por ejemplo: si para establecer relaciones filogenéticas en distintos grupos de organismos se utilizan evidencias morfológicas, se pueden buscar pruebas adicionales para validar esa hipótesis recurriendo a evidencias bioquímicas, biogeográficas, etcétera.

Hay que destacar que, si bien el surgimiento del método experimental fue fundamental para el avance de la ciencia moderna, este no es el único método utilizado por los científicos. Las metodologías que se utilizan en las investigaciones son variadas, con lo que se descarta la existencia de un único método científico universal.

Laboratorio de Lavoisier

Lavoisier en su laboratorio, experimentando sobre la respiración de un hombre en reposo (dibujo de Marie Anne Lavoisier).

RESPECTO A LA HIPÓTESIS DE INVESTIGACIÓN

El paso que sigue a la formulación del problema de investigación es enunciar las hipótesis que guiarán la investigación. Sin embargo, antes de dar este paso, será necesario fijar algunos criterios que permitan enunciar hipótesis adecuadas.

Como ya saben, una hipótesis es una respuesta posible aun interrogante planteado, que aún no ha sido puesta a prueba. Sin embargo, no todas las respuestas posibles para un problema de investigación son hipótesis.

Requisitos de una hipótesis
Para ser una hipótesis, la respuesta al problema debe reunir determinadas condiciones. Éstas son algunas de ellas. * Ser formulada en un lenguaje preciso y claro. Supongamos, por ejemplo, que alguien enuncia la siguiente hipótesis: “Los científicos que violan el código de ética profesional de la ciencia tienden a mostrar comportamientos amorales en otros ámbitos sociales”. Así formulada, la hipótesis tiene dos problemas: por un lado, no es evidente a qué se llama comportamientos amorales, ya que la expresión no está definida y puede tener más de una interpretación; por otro lado, no es muy claro el sentido de la expresión tienden a (¿cuántos comportamientos amorales tendría que manifestar un científico para que se configure una tendencia?).

* Ser coherente con el conjunto de los conocimientos disponibles sobre el problema de investigación. Por ejemplo, no seria muy interesante formular la hipótesis de que “La ciencia no se enfrenta con ningún problema ético” cuando son conocidos los debates que se plantean continuamente en torno de cuestiones éticas en el ámbito científico. i Hacer avanzar el conocimiento existente. Una hipótesis que reprodujera una afirmación unánimemente aceptada y comprobada en la comunidad científica no sería muy útil para saber más sobre el tema.
Por ejemplo, hoy no tendría sentido indagar la hipótesis de que “La Tierra gira alrededor del Sol”.

* Ser coherente con los objetivos del proyecto de investigación y, por lo tanto, con el tipo de proyecto de que se trate. Por ejemplo, si el proyecto es de naturaleza exploratoria -es decir que sus objetivos también lo son-, no se puede construir una hipótesis explicativa para ese proyecto y esos objetivos.

* Poder ser corroborada o refutada por los datos que se reúnen durante el proceso de investigación. Éste es un requisito muy importante, que los filósofos de la ciencia han debatido y fundamentado extensamente. En el apartado que sigue, se analiza con mayor profundidad.

DIFUSIÓN: Cuando el científico ha comunicado un resultado, su conocimiento permite a los tecnólogos imaginar aplicaciones a distintos sectores de la técnica. Otras veces marcha adelante el tecnólogo y descubre una propiedad desconocida; y es trabajo del científico explicar esa propiedad elaborando una teoría. En espectroscopia hay ejemplos de situaciones como ésas: primero se observaron las líneas espectrales y más tarde se desarrolló la teoría que las explica.

En el campo de la Metalurgia hay innumerables ejemplos: desde hace siglos se conoce y se usa la operación de templar un acero; pero la teoría del fenómeno sólo se conoce desde apenas unas décadas.

Otras veces el tecnólogo presenta sus requerimientos al científico, y éste investiga hasta determinar las condiciones que deben cumplirse para satisfacer aquellos requerimientos.

Esto ha ocurrido con frecuencia en los últimos tiempos, por ejemplo en la resolución del problema de la reentrada en la atmósfera de una cápsula espacial: la alta temperatura desarrollada por la fricción con el aire funde cualquier material ordinario, y fue necesario desarrollar nuevos materiales con las propiedades adecuadas. Algunas veces los científicos responden satisfactoriamente a las demandas de los tecnólogos; otras, no. Los problemas y dificultades se renuevan continuamente: nunca estará todo resuelto, pues cada solución abre nuevos caminos, y recorrerlos crea a su vez nuevos problemas.

Experimento con plantas

Grabado reproduciendo un experimento sobre la respiración de plantas y animales, incluido en
Legons sur les phénoménes de la vie communs aux animaux et aux végétaux de Claude Bernard (1878).

¿Qué es cultura científica?
Cada persona que quiere ser útil a su país y a sus semejantes tiene, entre otras cosas, la responsabilidad de adquirir una educación en ciencia (en nuestro caso, a través de la Física y de la Química) que la transforma en una persona capaz de:

• conocer los principios, las leyes y las teorías más generales y sus aplicaciones prácticas más difundidas;

• interpretar fenómenos naturales frecuentes;

• advertir y comprender la incidencia del desarrollo científico y tecnológico sobre las estructuras económicas y sociales en todo el mundo;

• reconocer la universalidad de la ciencia, que por una parte no reconoce fronteras nacionales, y por otra constituye el medio necesario para que la comunidad que forma la nación atienda y resuelva problemas propios;

• detectar, en su región o en su país, problemas susceptibles de ser tratados científicamente, y reconocer la propia responsabilidad en su planteamiento y en la búsqueda de soluciones;

• distinguir entre una simple creencia o una opinión, o una superstición, y una verdad científica;

• comprender que una verdad científica no es una verdad inmutable sino modificable por avances científicos que elaboren una nueva verdad científica más general, que puede abarcar a la anterior;

• gustar del placer intelectual de advertir un fenómeno natural, hacer coherentes partes aparentemente inconexas, plantear una hipótesis plausible y verificarla experimental o teóricamente;

• gustar del placer intelectual de difundir conocimientos y actitudes científicas entre las personas que lo rodean;

• adquirir el amor por la verdad que caracteriza al auténtico pensamiento científico;

• relacionar las explicaciones científicas con otras manifestaciones de la cultura, tales como la filosofía o el arte.

El desarrollo científico y técnico de los últimos tiempos ha ampliado el concepto y las exigencias de “persona culta”, que ya no se limitan al campo de la literatura, las artes o las humanidades exclusivamente.

Fuente Consultada:
Atlas Universal de la Filosofía – Manual Didáctico de Autores, Textos y Escuelas
Biología y Ciencias de la Tierra Estructura – Ecología – Evolución Polimodal
Formación Ética y Ciudadana Ética, Ley y Derechos Humanos 3° EGB
Elementos de Física y Química Maiztegui-Sabato

Teoria Herencia Genética Leyes de Mendel Fenotipo Genotipo Historia

Teoría de la Herencia Genética – Leyes de Mendel- Conceptos Fenotipo y Genotipo

Los principios establecidos por Mendel fueron los siguientes:

— Primera ley de Mendel o ley de la uniformidad.

— Segunda ley de Mendel o ley de la segregación.

Tercera ley de Mendel o ley de la independencia de caracteres.

BIOGRAFÍA Y EXPLICACIÓN DE LA TEORÍA:

Gregor Mendel, considerado el padre de la genética, fue un monje austriaco cuyos experimentos sobre la transmisión de los caracteres hereditarios se han convertido en el fundamento de la actual teoría de la herencia. Las leyes de Mendel explican los rasgos de los descendientes, a partir del conocimiento de las características de sus progenitores.

Teoria Herencia Genética

 Suele pasar en muchas oportunidades que un acontecimiento, en el momento en que se produce, no es considerado relevante y sólo logra serlo con el paso del tiempo. Éste es el caso del monje Gregor Mendel, un adelantado que descubrió de qué forma se heredan los caracteres. Realizadas a mediados del 1800, sus investigaciones a partir de la hibridación de plantas de arveja mediante la polinización artificial recién fueron valoradas a comienzos del siglo XX. Hoy, las leyes de Mendel son el fundamento de la genética moderna.

Gregor Mendel nació el 22 de julio de 1822 en Heizendorf (hoy Hyncice, República Checa), en el seno de una familia campesina. Dificultades familiares y económicas le obligaron a retrasar sus estudios. Fue un hombre de contextura enfermiza y carácter humilde y retraído.

El entorno sociocultural influyó en su personalidad científica, principalmente el contacto directo con la naturaleza, las enseñanzas de su padre sobre los cultivos de frutales y la relación con. diferentes profesores a lo largo de su vida, en especial el profesor J. Scheider, experto en pomología.

El 9 de octubre de 1843 ingresó como novicio en el convento de Brünn, conocido en la época por su gran reputación como centro de estudios y de trabajos científicos. Después de tres años, al finalizar su formación en teología, fue ordenado sacerdote, el 6 de agosto de 1847. En un principio fue inducido por su superior a dedicarse al campo de la pedagogía, pero él eligió un camino bien distinto.

En 1851 ingresó en la Universidad de Viena, donde estudió historia, botánica, física, química y matemáticas, para graduarse y ejercer como profesor de biología y matemáticas.

Durante su estancia allí llegó a dar numerosas clases como suplente, en las materias de matemáticas, ciencias naturales y ciencias generales, con excelente aprobación entre los estudiantes. Sin embargo, una vez finalizados sus estudios, no logró graduarse, por lo que decidió regresar al monasterio de Abbot en 1854. De naturaleza sosegada y mentalidad matemática, llevó una vida aislada, consagrado a su trabajo.

Más adelante fue nombrado profesor de la Escuela Técnica de Brünn, donde dedicó la mayor parte de su tiempo a investigar la variedad, herencia y evolución de las plantas, especialmente de los guisantes, en un jardín del monasterio destinado a los experimentos. Sus aportaciones al mundo de la ciencia son consideradas hoy como fundamentales para el desarrollo de la genética.

Hacia el final de su vida, en 1868, Mendel fue nombrado abad de su monasterio, donde murió el 6 de enero de 1884 a causa de una afección renal y cardiaca.

Mendel tuvo la fortuna de contar, en su propio monasterio, con el material necesario para sus experimentos. Comenzó sus trabajos estudiando las abejas, coleccionando reinas de todas las razas, con las que llevaba a cabo distintos tipos de cruces. Entre 1856 y 1863 realizó experimentos sobre la hibridación de plantas.

A partir de 1856  y después de nueve años de trabajo, en que estudió la reproducción en 28.000 plantas de guisantes, Mendel presentó en 1865 sus resultados a la citada sociedad de historia natural. La comunicación, en la que establecía las leyes de la herencia, fue publicada al año siguiente en los anales de la sociedad. ¿Cómo pudo pasar inadvertida durante treinta y cuatro años? Es un enigma de la historia de la ciencia. Una de las razones pudo consistir en que Mendel no se preocupó de publicar sus trabajos en alguna revista científica de amplia difusión. Pero también hay que tener en cuenta, sobre todo, que sus descubrimientos contradecían radicalmente las ideas que entonces se tenían sobre la herencia: según Mendel, los determinantes genéticos de los caracteres provenientes de los padres no se «mezclaban» en sus descendientes, cuando la teoría más común era la de la herencia por mezcla. En otras palabras: la obra de Mendel era prematura en relación a los conocimientos prácticos y teóricos de su época.

Trabajó con más de 28.000 plantas de distintas variantes del guisante oloroso, analizando con detalle siete pares de características de la semilla y la planta: la forma de la semilla, el color de los cotiledones, la forma de la vaina, el color de la vaina inmadura, la posición de las flores, el color de las flores y la longitud del tallo.

Sus exhaustivos experimentos tuvieron como resultado el enunciado de dos principios que más tarde serían conocidos como «leyes de la herencia». Sus observaciones le permitieron acuñar dos términos que siguen empleándose en la genética de nuestros días: dominante y recesivo. Factor e hibrido son, asimismo, dos de los conceptos establecidos por Mendel de absoluta vigencia en la actualidad.

En 1865 Mendel expuso ante la Sociedad de Historia Natural de Brünn una extensa y detallada descripción de los experimentos que había llevado a cabo y de los resultados obtenidos. A pesar de su importancia, y de que su trabajo fue distribuido entre las principales sociedades científicas de su

tiempo, pasó totalmente inadvertido. Al año siguiente, en 1866, publicó su obra fundamental en un pequeño boletín divulgativo de su ciudad, bajo el título Ensayo sobre los híbridos vegetales. En ella expuso la formulación de las leyes que llevan su nombre. Este ensayo contenía una descripción del gran número de cruzamientos experimentales gracias a los cuales habla conseguido expresar numéricamente los resultados obtenidos y someterlos a un análisis estadístico.

A pesar de esta detallada descripción, o quizás por ese mismo motivo, su obra no tuvo respuesta alguna entre la comunidad científica de su época. De hecho, Mendel íntercambió correspondencia con uno de los más eminentes botánicos del momento, Carl Nágeli, aunque éste no pareció muy impresionado por su trabajo. Sugirió a Mendel que estudiara otras plantas, como la vellosina Hieracium, en la cual Nágeli estaba muy interesado.

Mendel siguió su consejo, pero los experimentos con Hieracium no fueron concluyentes, dado que no encontró normas consistentes en la segregación de sus caracteres, y empezó a creer que sus resultados eran de aplicación limitada. Su fe y su entusiasmo disminuyeron, y debido a la presión de otras ocupaciones, en la década de 1870 abandonó sus experimentos sobre la herencia. No fue hasta mucho después de la muerte de Mendel, en 1903, cuando se descubrió que en Hieracium se da un tipo especial de partenogénesis, que produce desviaciones de las proporciones fenotípicas y genotípicas esperadas.

Tuvieron que pasar treinta y cinco años para que la olvidada monografía de Mendel saliera a la luz. En 1900 se produjo el redescubrimiento, de forma prácticamente simultánea, de las leyes de Mendel por parte de tres botánicos: el holandés Hugo de Vries en Alemania, Eric Von Tschermak en Austria y Karl Erich Correns en Inglaterra.

Asombrados por el sencillo planteamiento experimental y el análisis cuantitativo de sus datos, repitieron sus experimentos y comprobaron la regularidad matemática de los fenómenos de la herencia, al obtener resultados similares. Al conocer de forma fortuita que Mendel les había precedido en sus estudios, estuvieron de acuerdo en reconocerle como el descubridor de las leyes que llevan su nombre.

El británico William Bateson otorgó un gran impulso a dichas leyes, considerándolas como base de la genética (hoy llamada genética clásica o mendeliana), término que acuñó en 1905 para designar la «ciencia dedicada al estudio de los fenómenos de la herencia y de la variación de los seres».

En 1902, Boyen y Sutton descubrieron, de forma independiente, la existencia de un comportamiento similar entre los principios mendelianos y los cromosomas en la meiosis. En 1909 el danés Wilhelm Johannsen introdujo el término «gen» definiéndolo como «una palabrita.., útil como expresión para los factores únitarios… que se ha demostrado que está en los gametos por los investigadores modernos del mendelismo». Sin embargo, no fue hasta finales de la década de 1920 y comienzos de 1930 cuando se comprendió el verdadero alcance del trabajo de Mendel, en especial en lo que se refiere a la teoría evolutiva.

Mendel desconocía por completo la naturaleza de los «factores hereditarios». Años más tarde, el descubrimiento
de los cromosomas y del mecanismo de la división célula” arrojó luz sobre cómo se produce la herencia
de los caracteres.

Los cruces de arvejas: Para observar la existencia de reglas en la transmisión de las características de una generación a la siguiente, eligió hacer sus famosos cruzamientos a partir de la especie Pisum sativum por diversos motivos: su costo era muy bajo, tenía diferentes variedades dentro de la misma especie y, lo más importante, le permitiría realizar muchos experimentos en poco tiempo, ya que esta planta tiene un período de generación muy corto y un alto índice de descendencia. En total, hizo 287 cruces mediante la polinización artificial entre 70 diferentes variedades puras. En total, utilizó unas 28 mil plantas.

El esquema consistió en cruzar dos variedades puras diferentes en uno o más caracteres para autofecundar luego esta primera generación de vastagos, y así sucesivamente.

De esa forma, notó que al mezclar dos guisantes, un carácter o variación propia de uno de ellos -lo que se conoce como alelo- no aparecía en la siguiente generación. Además, al cruzar a esos híbridos resultantes en la primera generación, es decir, los descendientes, corroboró que el carácter antes citado volvía a aparecer. Así pues, las plantas hijas nuevas mostraban una distribución regular: la cuarta parte heredaba la característica de la variedad pura que había actuado como “abuela”; la otra cuarta parte, la de la planta “abuelo”, y la mitad adquiría la característica común de los “padres”.

La ventaja de Mendel para plantear sus leyes de herencia fue aplicar las matemáticas a la biología. Al expresar mediante relaciones numéricas las reglas de transmisión de las características de una generación a otra, pudo predecir con precisión los resultados de los distintos cruzamientos.

Las Leyes de Mendel

Las leyes de Mendel explican y predicen cómo van a ser las características de un nuevo individuo, partiendo de los rasgos presentes en sus padres y abuelos. Los caracteres se heredan de padres a hijos, pero no siempre de forma directa, puesto que pueden ser dominantes o recesivos. Los caracteres dominantes se manifiestan siempre en todas las generaciones, pero los caracteres recesivos pueden permanecer latentes, sin desaparecer, para surgir y manifestarse en generaciones posteriores.

Los principios establecidos por Mendel fueron los siguientes:

— Primera ley de Mendel o ley de la uniformidad. Establece que si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera generación son todos iguales entre sí e iguales (en fenotipo) a uno de los progenitores.

— Segunda ley de Mendel o ley de la segregación. Establece que los caracteres recesivos, al cruzar dos razas puras, quedan ocultos en la primera generación, reaparecen en la segunda en proporción de uno a tres respecto a los caracteres dominantes. Los individuos de la segunda generación que resultan de los híbridos de la primera generación son diferentes fenotipicamente unos de otros; esta variación se explica por la segregación de los alelos responsables de estos caracteres, que en un primer momento se encuentran juntos en el híbrido y que luego se separan entre los distintos gametos.

Tercera ley de Mendel o ley de la independencia de caracteres. Establece que los caracteres son independientes y se combinan al azar. En la transmisión de dos o más caracteres, cada par de alelas que controla un carácter se transmite de manera independiente de cualquier otro par de alelos que controlen otro carácter en la segunda generación, combinándose de todos los modos posibles.

LO ESENCIAL DE SU TEORÍA:

PRINCIPIO DE LA UNIFORMIDAD Cuando se cruzan dos razas puras, los descendientes de la primera generación serán todos iguales entre sí e iguales a uno de los progenitores.

PRINCIPIO DE LA SEGREGACIÓN Dice que los individuos de la segunda generación no son uniformes porque los caracteres de los padres segregan, y se dan estas proporciones: 1/4 de los descendientes manifiesta el carácter de un progenitor; 1/4 el de otro y la mitad restante se compone por híbridos.

PRINCIPIO DE LA COMBINACIÓN INDEPENDIENTE Cuando se cruzan dos individuos que difieren en dos caracteres, los genes se heredan independientemente unos de otros y se combinan de todas las maneras posibles.

Después de Mendel
Los trabajos de Mendel, si bien se publicaron en 1865, fueron completamente olvidados durante 35 años. En 1900, tres investigadores, Correns, De Vries y Tschermack llegaron, de forma independiente, a las mismas conclusiones que Mendel. En un ejemplo de honradez científica, decidieron que el honor del descubrimiento corresponde a su predecesor. De no ser asi, probablemente Mendel hubiera desaparecido de la historia de la Ciencia.

Los genetistas actuales reconocen que Mendel, además de escoger el material biológico más adecuado, supo concentrar su atención en los fenómenos parciales y no en la totalidad de los caracteres (lo que le habría confundido), así con clasificar los caracteres y establecer relaciones entre ellos.

El hecho de que Mendel realizase todos sus descubrimientos sin conocer la existencia del ADN y los cromosomas, ni el proceso de la división celular, ni qué sucede durante la fecundación con el material hereditario, agrega mérito a sus logros.

Los cromosomas y su papel en la herencia
En 1902, Sutton y Bovery observaron la relación entre los cromosomas y la herencia y propusieron que las partículas hereditarias (hoy llamadas genes) se encuentran en los cromosomas, dispuestas una a continuación de otra. Esta fue la primera forma  de la teoría cromosómica de la herencia, demostrada por Morgan en los años veinte pasado siglo.

Treinta años más tarde se descubrió que el material hereditario está formado exclusivamente por ácido desoxirribonucleico o ADN (excepto en algunos virus, en los que es ARN). Este material hereditario se encuentra localizado dentro del núcleo de las células asociado a proteínas, formando la cromatina. Solo en el momento de la división celular, la cromatina se condensa y se empaqueta, permitiendo entonces la observación de los cromosomas.

Se denomina gen a una porción más o menos larga de ADN (de un determinado cromosoma) que contiene la información para sintetizar una determinada proteína responsable de un carácter. En el núcleo de cada una de nuestras células hay aproximadamente 25.000 genes. En una célula díploide, como las que forman el organismo humano, hay dos juegos de cromosomas idénticos: los cromosomas de cada pareja se denominan cromosomas homólogos.

¿ Cómo comprobar las leyes de Mendel ?

1. Consigue agar o gelatina sin sabor, 1 banano, 4 frascos de boca ancha (del mismo tamaño), 1 caja de petri, gasa, 1 gotero, algodón, horno u olla de presión, alcohol, agua, pincel delgado y suave, estereoscopio o lupa.

2. Esteriliza tres frascos lavándolos e introduciéndolos en un horno o en una olla a presión en seco —o en un autoclave— a una temperatura de 350°C durante 40 minutos.

3. Preparación del tapón: se elabora con algodón envuelto en gasa, de tal manera que se ajuste bien a la tapa del frasco; se amarra y se esteriliza con el frasco.

4. Disuelve 3 ml de agar en 40 ml de agua o 1 paquete de gelatina sin sabor en 40 mi de agua. Macera un banano en 40 mi de agua. Agita las preparaciones en un recipiente y caliéntalas hasta hervir.

5. A la mezcla se le agrega un fungicida para eliminar los hongos; suele utilizarse ácido propiónico al 94% en cantidad de 1 mi, o en su defecto, puede remplazarse por 1 mi de ácido acético (vinagre).

Luego la mezcla se coloca en los frascos esterilizados (a una altura aproximada de 2 cm), teniendo la precaución de evitar al máximo la contaminación. Se tapona y se deja enfriar durante 36 horas. El frasco está listo para recibir las moscas.

Para conseguir las moscas, se deja una fruta como banano o naranja en la ventana de cualquier habitación. Allí llegará la Drosophila melanogaster atraída por el olor.

• Enumera las razones por las cuales se prefiere a la mosca de la fruta para las experiencias de genética.

6. Para examinar apropiadamente las moscas que has conseguido, deben estar anestesiadas con éter y ubicadas en el recipiente para su observación. Sigue con atención el siguiente procedimiento, teniendo en cuenta estas precauciones:

• Cerciórate de que no haya ninguna llama en el cuarto, pues el éter es muy inflamable.
• El cuarto debe estar ventilado.

7. Golpea suavemente el fondo del frasco que contiene las moscas, para obligarlas a ir al fondo, quitando rápidamente el tapón del frasco de cultivo e invierte éste sobre el extremo abierto del frasco para eterizar. Golpeas suavemente, sobre la mesa de trabajo, el fondo del frasco para eterizar, así obligas a pasar las moscas a este último recipiente. Tu compañero o compañera de trabajo debe impregnar el algodón, que servirá de tapón, con unas gotas de éter.

Fuente Consultada: Enciclopedia Investigemos – Ciencia Integrada Tomo 3

LAS LEYES DE MENDEL: La validez de las leyes de Mendel sólo se confirmó hacia 1900 (16 años después de la muerte de Mendel). Varios botánicos obtuvieron resultados similares con experimentos de hibridación de plantas. Sin embargo, aunque las leyes de Mendel quedaron confirmadas, en un gran número de casos aparecieron excepciones. En aquel momento, la técnica del microscopio hizo grandes progresos y, estudiando la división de las células, se descubrieron los cromosomas.

Éstos tienen una estructura filiforme y se encuentran presentes en el núcleo de las células. Cada célula tiene un número fijo de cromosomas, y cada cromosoma puede aparearse con otro semejante. Las células del cuerpo humano contienen 23 pares; las células de una mata de guisantes, 7 pares. En los cromosomas pueden residir los factores de Mendel, y de hecho se ha demostrado experimentalmente. Los factores que llamamos “genes” son unas nucleoproteínas muy complicadas. Un cambio químico de poca importancia puede trasformar el factor grande en pequeño al modificar una nucleoproteína.

Cada gene se encuentra en un punto determinado de un cromosoma. En cada célula tenemos dos cromosomas apareados y, por tanto, dos genes para controlar un carácter. Si se trata de dos factores pequeños, o de dos grandes, el carácter es homozigótico (puro); si los factores son distintos, el carácter será heterozigótico(impuro).

Al formarse las células sexuales, los cromosomas sufren un fenómeno llamado “miosis”. Durante la miosis, los pares de cromosomas se separan; a cada una de las células sexuales (gametos) corresponde uno de los cromosomas del par. Esto es, exactamente, lo que estableció Mendel en su Segunda Ley: sólo uno de los factores de un determinado par puede encontrarse en un gameto. Son iguales todos los gametos de un individuohomozigótico; pero los de un individuo heterozigótico son de los dos tipos, en número igual.

Mendel tuvo la suerte de elegir caracteres como la forma y el color de las semillas, que se encontraban localizados en distintos cromosomas. Con “genes” ligados (es decir, que se encuentran en el mismo cromosoma) los resultados hubieran sido distintos. Al obtener, únicamente, semillas lisas y amarillas, o rugosas y verdes, porque LA y rv no se hubieran separado, Mendel no hubiese podido establecer su Tercera Ley. Esto ocurre con muchos caracteres, debido al enorme número de genes que hay en cada cromosoma. Los genes ligados son la causa de una excepción importante a la tercera Ley de Mendel.

Los genes ligados pueden, sin embargo, separarse y esto ocurre con cierta frecuencia en el llamado entrecruzamiento. Este fenómeno consiste en la ruptura de dos cromosomas (durante la miosis), que se vuelven a unir por distinto sitio.

Como se observa en la figura, cuanto más separados están dos genes en un cromosoma, más probabilidades hay de que se separen por entrecruzamiento. Haciendo un estudio estadístico de la frecuencia con que se separan dos genes, que normalmente se encuentran en un mismo cromosoma, se diseña un “mapa genético” de un cromosoma determinado. El entrecruzamiento es un importante origen de la variación en los seres vivos.

cromosomas

Si “L” y “A” (y “r” y “v”) están ligados normalmente, al separarse los cromosomas aparecerán juntos.

mendel y las leyes


Si los cromosomas se rompen y se vuelven a unir, “L” y “A” y “r” y “v” pueden separarse cuando los cromosomas se dividen para producir gametos.

Ideas Geniales de la Ciencia Grandes Ideas Cientificas Gay Lusac

Científicos Creadores de Grandes Ideas

Tales de Mileto  –   Pitágoras   –   Arquímedes  –   Demócrito  –   Galileo Galilei

Lavoisier –   Newton  –   Faraday   –   Joule  –  Linneo

OTROS CIENTÍFICOS GENIALES

JOSÉ LUIS GAY-LUSSAC (1778-1850): José Luis Gay-Lussac nació el 6 de diciembre de 1778 en Saint Léonard, Francia. Físico y químico, descubrió la ley de dilatación de los gases. En colaboración con Thénard demostró que el cloro, hasta entonces considerado como un ácido, no contenía oxígeno, pero supieron que era un compuesto. Davy demostró que era un elemento.

Una aportación de Gay-Lussac fue el descubrimiento de que si se enfría un volumen definido de gas bajo presión constante a una temperatura de O grados C., el gas se contrae un 1/273 por cada grado centígrado que la temperatura descienda. Ello querría decir que, en teoría, el gas dejaría de existir al llegar a los 273 grados bajo 0. En la realidad el gas primero se licúa y luego se solidifica.

Simultáneamente, otro científico francés, Charles, descubría él mismo fenómeno, que se conoce como ley de Charles o de Gay-Lussac, la que expresa que, si la presión de un gas es constante, su volumen será directamente proporcional a su temperatura absoluta. Este concepto fue el que originó una nueva escala de temperaturas, la de Lord Kelvin, que se emplea mucho en los laboratorios químicos. La temperatura de 173 grados C. bajo O se denomina O absoluto, punto en que cesa todo movimiento molecular.

Estudiando la relación entre la temperatura y la presión, propuso la teoría que cuando un gas se calienta, sus moléculas tienden a apartarse, ejerciendo mayor presión sobre las paredes del recipiente que lo contiene. Es decir, cuanto más aumente la temperatura mayor será la presión ejercida por el gas contra las paredes del recipiente. Esto se conoce como ley de Gay-Lussac.

En su colaboración con Thénard, Gay-Lussac mejoró los métodos del análisis orgánico, determinando la composición de numerosos elementos orgánicos. Su última investigación química se refirió al ácido prúsico, cuyo nombre químico es ácido cianhídrico, uno de los más potentes venenos conocidos. La fórmula de este ácido es HCN.

La determinación de la fórmula donde no aparece el oxígeno pero sí el hidrógeno, confirmó la teoría de que todos los ácidos contienen hidrógenos, pero no oxígeno como sostenía Lavoisier (oxígeno quiere decir generador de ácidos). Hay ácidos que pueden contener oxígeno, pero la acidez la determina el hidrógeno. Gay- Lussac murió en París el 9 de mayo de 1850, a la edad de setenta y dos años.

 HUMPHRY DAVY (1778-1829): Davy nació en Pensanse (Cornualles) sudoeste de Inglaterra, el 17 de diciembre de 1778. Hijo de un tallador de madera de bajos medios económicos, Davy entró el año 1795 de aprendiz de un cirujano. Como el muchacho tenía muchas inquietudes, decidió , simultáneamente instruirse a si mismo. Fue así como estudió idiomas, filosofía y, por supuesto, 

ciencias. En 1798 ingresó al Beddoes’s Pneumatic Insitute de Bristol en calidad de supervisor de experimentos.

En Beddoes conoció al gran poeta Samuel Coleridge de quien llegó a ser muy amigo. Coleridge fue una fuerte influencia sobre Davy y le inició en la filosofía de la ciencia de Kant. En 1800 Davy publicó un libro sobre el óxido nitroso (gas de la risa) que tuvo gran éxito, creándole una reputación.

Fue hacia 1806 que emprendió estudios sistemáticos de electroquímica. Ideó y desarrolló métodos de análisis fundados en el uso de corrientes eléctricas. Davy tenía el convencimiento de que la afinidad química tenía un fundamento eléctrico. Aplicando su procedimiento aisló el sodio, el potasio, el magnesio, calcio, bario, estroncio, boro, y silicio. Por aquellas fechas reinaba la teoría de Lavoisier de que el oxígeno era la base de los ácidos (oxígeno significa generador de ácidos). Davy refutó tal teoría y descubrió que los óxidos de los nuevos metales eran álcalis.

Davy se interesó siempre en las aplicaciones de la química y la física en la realidad de la industria. Fue un precursor de las aplicaciones de la química en la agricultura, dictando los primeros cursos sobre la materia en el mundo. Una obra suya, la lámpara de seguridad, alcanzó fama universal y salvó las vidas de miles de mineros.

A raíz de un horrible desastre minero en 1812, donde perecieron noventa y dos hombres y niños a raíz de una explosión a ciento ochenta metros bajo la superficie, los dueños de las minas plantearon a Davy el problema. Las velas y lámparas usadas por los mineros en ese tiempo producían con suma frecuencia el estallido del gas subterráneo, llamado “metano”.

Davy descubrió que ese gas no estallaba de modo violento en un tubo pequeño. Diseñó una lámpara en que el metano penetraba y salía por tubos muy pequeños. La lámpara tenía una malla de alambre que rodeaba la llama. La malla tenía 127 orificios por centímetros cuadrado, absorbía el calor del combustible que la hacía arder y lo conducía sin que el calor inflamara el gas que estaba fuera de la lámpara. La malla protectora se montaba sobre un bastidor de alambres verticales y se atornillaba en anillos de bronce, en el superior tenía un asa y el inferior estaba atornillado al cuello del depósito del combustible. La luz salía por una ventanilla de vidrio protegido.

Davy gozó en vida de una enorme celebridad y para la inmortalidad en su tumba está escrito el siguiente epitafio: “Summus arcanorum naturae indagator” (Sumo investigador de los arcanos de la naturaleza). Murió en Ginebra, Suiza, en 1829.

Biografia de Grandes Iconoclastas Personajes que cambiaron la historia

Biografia de Grandes Iconoclastasde la Historia

Biografia de Grandes Iconoclastasde la Historia

Isaac Newton  –  Louis Pasteur   – Charles Darwin  – Sigmund Freud  – Albert Einstein

Cuando Einstein enunció que E=mc2 el mundo no cambió. No se había inventado nada. El modo en que se comportaban las partículas no se alteró. Por ese motivo, el universo permaneció exactamente como estaba. Pero nosotros cambiamos. Cuando la complejidad de la física cuántica se reveló a las mentes inquisitivas, la visión humana del universo se alteró para siempre. Átomos, electrones, y partículas subatómicas no eran distintos de como habían sido durante miles de millones de años —la única diferencia real fue que supimos de ellos.

La intención es revelar los logros principales de cada persona, pero reconociendo que éstos están soportados por muchos otros descubrimientos. En conjunto, estos pensadores tenían dos ambiciones principales. Aquellos como Edwin Hubble y su amigo, simplemente querían descubrir lo que existe y cómo encaja todo. Por otro lado, los inventores científicos como James Watt Thomas Edison se lanzaron a manipular los procesos fundamentales del universo para crear herramientas y técnicas que hicieran la vida un poco mejor.

 Isaac Newton fue descrito por su maestra como vago y distraído. Thomas Edison hacía novillos. El psiquiatra John Watson era violento a veces. En restropectiva podemos ver que, probablemente, sólo eran demasiado listos para interesarse por una enseñanza común, y demasiado creativos para aceptar información sin sin cuestionarla. Aunque otros, como el explorador de gases Robert Boyle, eran niños  enfermizos y tenían muy poca educación formal. Son ejemplos que deberían alentar cualquier  padre que ve a su hijo batallando en el colegio. Es  interesante notar cómo muchos de los grandes logros ocurrieron con un telón de fondo de guerra, conflictos, e inestabilidad política. Los antiguos filósofos griegos, como Sócrates fueron en parte impulsados por la necesidad de dar sentido a un mundo de peleas, y los videntes de física de partículas del siglo XX, como Heisenberg y Niels Bohr, vieron su ciencia utilizada como armamento. Debido a su inteligencia o a su específica especialización, otros como Platón y Henry Ford se encontraron involuntariamente en la línea de fuego de las autoridades. Aunque otros, como Edwin  Schrodinger, experimentaron la vida, literalmente, en la línea de fuego.

 Mucha gente conoce el nombre de Charles Darwin, pero muy pocos reconocen a Alfred Wallace. Ambos alcanzaron la misma conclusión sobre la evolución casi simultáneamente, pero Darwin tenía dinero y amigos políticos, y viviendo en Inglaterra, ganó la carrera para publicar sus ideas. Algunos, como el padre de la píldora anticonceptiva Carl Djerassi ganaron fama debido a que su descubrimiento encajó en una marea de cambio socio-político. Otros incontables científicos y exploradores de la mente y el cuerpo  probablemente tuvieron grandes ideas, pero no llegaron a  ningún lado porque estaban demasiado por delante de su tiempo.

Geometria No Euclidiana El Espacio Curvado de Einstein

Geometría no Euclidiana: El Espacio Curvado de Einstein

¿Qué quiere decir que el espacio está curvado?

Al leer, así, de pronto, que la teoría de la relatividad de Einstein habla del «espacio curvado», uno quizá tiene todo derecho a sentirse desconcertado. El espacio vacío ¿cómo puede, ser curvo? ¿Cómo se puede doblar el vacío?

Para verlo, imaginemos que alguien observa, desde una nave espacial, un planeta cercano. El planeta está cubierto todo él por un profundo océano, de modo que es una esfera de superficie tan pulida como la de una bola de billar. Y supongamos también que por este océano planetario navega un velero a lo largo del ecuador, rumbo este.

Imaginemos ahora algo más. El planeta es completamente invisible para el observador. Lo único que ve es el velero. Al estudiar su trayectoria comprueba con sorpresa que el barco sigue un camino circular. Al final, regresará al punto de partida, habiendo descrito entonces una circunferencia completa.

Si el barco cambia de rumbo, ya no será una circunferencia perfecta. Pero por mucho que cambie de rumbo, por mucho que vire y retroceda, la trayectoria se acoplará perfectamente a la superficie de una esfera.

 espacio curvo

De todo ello el observador deducirá que en el centro de la esfera hay una fuerza gravitatoria que mantiene al barco atado a una superficie esférica invisible. O también podría deducir que el barco está confinado a una sección particular del espacio y que esa sección está curvada en forma de esfera. O digámoslo así: la elección está entre una fuerza y una geometría espacial.

Diréis que la situación es imaginaria, pero en realidad no lo es. La Tierra describe una elipse alrededor del Sol, como si navegara por una superficie curvada e invisible, y para explicar la elipse suponemos que entre el Sol y la Tierra hay una fuerza gravitatoria que mantiene a nuestro planeta en su órbita.

Pero suponed que en lugar de ello consideramos una geometría espacial. Para definirla podríamos mirar, no el espacio en sí, que es invisible, sino la manera en que los objetos se mueven en él. Si el espacio fuese «plano», los objetos se moverían en líneas rectas; si fuese «curvo», en líneas curvas.

Un objeto de masa y velocidad dadas, que se mueva muy alejado de cualquier otra masa, sigue de hecho una trayectoria casi recta. Al acercarse a otra masa, la trayectoria se hace cada vez más curva. La masa, al parecer, curva el espacio; cuanto mayor y más próxima, más acentuada será la curvatura.

Quizá parezca mucho más conveniente y natural hablar de la gravitación corno una fuerza, que no como una geometría espacial… hasta que se considera la luz. La luz no tiene masa, y según las viejas teorías no debería verse afectada por la fuerza gravitatoria. Pero si la luz viaja por el espacio curvado, también debería curvarse su trayectoria. Conociendo la velocidad de la luz se puede calcular la deflexión de su trayectoria al pasar cerca de la ingente masa del Sol.

En 1919 se comprobó esta parte de la teoría de Einstein (anunciada tres años antes) durante un eclipse de Sol. Para ello se comparó la posición de las estrellas próximas al Sol con la posición registrada cuando el Sol no se hallaba en esa parte de los cielos. La teoría de Einstein quedó confirmada y desde entonces es más exacto hablar de la gravedad en función del espacio curvado, que no en función de una fuerza.

Sin embargo, justo es decir que ciertas medidas, muy delicadas, de la forma del Sol, realizadas en 1967, pusieron en duda la teoría de la gravitación de Einstein. Para ver lo que pasará ahora y en el futuro habrá que esperar.

Ver: Espacio Curvo de Einstein

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov


preguntas curiosas: derretimiento de los casquetes polares

Los Descubrimientos de Albert Einstein 1905 Revolucion de la Fisica

Los Descubrimientos de Albert Einstein 1905

INTRODUCCIÓN:
ALBERT EINSTEIN, EL CIENTÍFICO

Albert EisnteinLos primeros trabajos científicos de Einstein aparecieron en 1901, 1902 y 1903. El primero se refería a la atracción capilar; los otros dos se relacionaban con un trabajo desarrollado anteriormente por el físico matemático norteamericano, Willard Gibbs, pero Einstein no lo sabía.

Se trataba de los Fundamentos estadísticos de la termodinámica. En último término resultó que la aproximación hecha por Einstein era mucho menos abstracta que la de Gibbs, pero el joven genio no se conformó con esto, sino que avanzó hasta darle una aplicación práctica de la mayor importancia.

Por aquella fecha, todavía se hallaba en discusión la realidad de las moléculas y la teoría cinética de la materia. De acuerdo con estas ideas, la temperatura de un cuerpo se debe a la agitación térmica de las moléculas que lo componen. Einstein descubrió que los temas en discusión podían ser vistos por el ojo humano; descubrió que esa “agitación térmica” podía producir un efecto visible y mensurable cuando se trataba de partículas suspendidas en una solución.

En verdad, este efecto había sido descubierto en 1827 por el botánico escosés Robert Brown. Brown observó que los granos de polen suspendidos en agua se dispersaban en un gran número de partículas menores que se hallaban en constante movimiento, moviéndose en zigzags irregulares inclusive cuando no existían corrientes ni otras perturbaciones dentro del agua.

El trabajo (paper)  fundamental de Einstein en el cual demostró que el movimiento browniano podía emplearse como evidencia directa de la existencia de las moléculas, así como para demostrar que era correcta la teoría cinética del calor, fue publicado en 1905, año que ha sido considerado de manera unánime por el mundo científico como el annus mirabilis de Albert Einstein.

En efecto, el Volumen 17 de la revista Annalen der Physik, aparecido en 1905, es considerado uno de los ejemplares más notables de la literatura científica que se haya editado jamás (20). Dicho volumen contiene tres trabajos de Einstein, cada uno aborda un tema diferente y cada uno es una obra maestra en su género.

El trabajo sobre el movimiento browniano era el segundo de ellos; iba precedido por la primera contribución del sabio a la física cuántica, y lo mismo que el tercero, dedicado a la relatividad, se refería al comportamiento de la luz.

Isaac Asimov, científico dedicado mayormente a la divulgación de las ciencias, dice:

“En su Teoría especial de la relatividad -presentada en el año 1905 y desarrollada en sus ratos libres mientras trabajaba como perito técnico de la oficina suiza de patentes-, Einstein expuso una opinión fundamental e inédita del Universo basándose en una aplicación de la teoría de los cuantas.

Sostuvo que la luz se traslada por el espacio en forma “cuántica” y de este modo resucitó el concepto de la luz integrada por partículas. Pero ésta era una nueva especie de partícula, que reúne en sí las propiedades de las ondas y de las partículas, mostrando indistintamente unas u otras propiedades, según fuese el caso.

“Esto podría parecer una paradoja e inclusive una especie de misticismo, como si la verdadera naturaleza de la luz desbordara todo conocimiento imaginable. Sin embargo, no es así. Para ilustrarlo con una analogía, digamos que el hombre puede mostrar diversos aspectos: el de marido, padre, amigo o comerciante. Todo depende de su ambiente momentáneo, y según sea éste se comportará como marido, padre, amigo o comerciante. Sería improcedente que exhibiera su comportamiento conyugal con una cliente o el comportamiento comercial con su esposa, pero de cualquier forma que sea, ello no implicaría un caso paradójico ni un desdoblamiento de la personalidad”.

El pensamiento einsteiniano, cuando apenas contaba 26 años de edad, parece una gran falta de respeto no sólo para con Newton, cuya mecánica de los cielos nos estaba gobernando desde el siglo XVIII, sino también para Euclides, cuya geometría quedó establecida en el Siglo IV a C. y que parecía sostenerse sobre un pedestal inconmovible. En su Autobiografía citada ya anteriormente, escrita, según confiesa, a los 67 años de edad, dice en un tono juguetón al referirse a la física:

“… A pesar de toda su fecundidad en cuestiones particulares, en lo tocante a principios reinaba una rigidez dogmática inexplicable: en el comienzo, si es que hubo semejante cosa, Dios creó las leyes del movimiento de Newton, con sus correspondientes masas y fuerzas.

Eso es todo;… Ahora bien lo que más impresionaba al estudiante no era tanto la estructura técnica que se otorgaba a la mecánica, ni la solución de complicadísimos problemas, sino los logros y alcance de la mecánica en ciertos campos que, aparentemente, no guardaban ninguna relación con ella, como la teoría de la mecánica de la luz, que la interpretaba como un movimiento ondulatorio de un éter que era a la vez elástico y cuasirígido, pero sobre todo la teoría cinética de los gases…

Estos resultados le proporcionaban fundamento a la mecánica para sustentar la física y, a la vez, la hipótesis atómica, que ya estaba firmemente anclada en la química. Sin embargo, en la química sólo jugaban un rol las razones existentes entre la masa de los átomos y no sus magnitudes absolutas, de manera que la teoría atómica estaba allí para la contemplación, como antología esclarecedora más que conocimiento de la estructura factual de la materia.

No debe, en consecuencia, extrañarnos que prácticamente todos los físicos del siglo pasado vieran en la mecánica clásica (de Newton) una base tan sólida como definitiva para toda la física, y que incluyeran también a toda la ciencia de la naturaleza…:

La manera que Einstein expone su razonamiento nos parece tan claro y tan obvio, que no en balde sus exposiciones teóricas provocaban rechazo y, cuando menos, grandes dudas, cada vez que se las exponía a sus colegas científicos, todos los cuales estaban inmensamente influenciados por los grandes avances de la física del siglo XIX, y he aquí un joven estudiante que se atreve a desafiar leyes teóricas tan firmemente consagradas… ¡aunque no se congraciaran con la experiencia, como comenzó a quedar en evidencia luego que Einstein expusiera sus teorías!.

Este tipo de fenómenos, que ocurren muy de tarde en tarde en el terreno de las ciencias exactas y que, cuando se presentan, revolucionan el pensamiento científico, por lo general permanecen en la oscuridad, permanecen guardados en el cerebro de sus geniales creadores.

En el caso de Albert Einstein, sin embargo, existe un testimonio de un valor incalificable. Ocurre que se dispone de evidencias pormenorizadas del progreso gradual del pensamiento einsteiniano en torno a la gestación de su teoría de la relatividad.

Ocurre que en 1916, cuando el sabio Albert Einstein ya había presentado su Teoría general de la relatividad, sostuvo una serie de largas conversaciones con el famoso sicólogo Max Wertheimer relacionadas con el tema de la relatividad, que era el tema obligado de la comunidad científica mundial. Años más tarde, el profesor Wertheimer entregó un recuento fascinante de esas conversaciones en un capítulo de su libro Productive Thinking (“Pensamiento productivo”).

Nos cuenta el profesor Wertheimer que a los 16 años de edad, cuando aún no ingresaba al Politécnico de Zurich, Einstein se encontraba sumido en grandes honduras. Existía una paradoja científica que le tenía perplejo y confundido. De acuerdo con las ideas aceptadas y establecidas, un haz de luz viaja a través del espacio vacío a la velocidad conocida y finita de 300 mil kilómetros por segundo.

El joven Einstein trataba de imaginarse qué vería si pudiera viajar a través del espacio con la misma velocidad que ese haz de luz. De conformidad con la idea general del movimiento relativo, le parecería que el haz de luz en tal caso asumiría la apariencia de un campo electromagnético oscilante en el espacio que estuviera en reposo. Pero semejante concepto era desconocido para los físicos y era una variable de la teoría de Maxwell. Einstein entonces comenzó a sospechar que las leyes de la física, incluyendo las que conciernen a la propagación de Ja luz, deben ser las mismas para todos los observadores, no importa con cuánta rapidez se desplacen unos respecto a otros.

Cuando Wertheimer le peguntó a Einstein si ya en ese tiempo él tenía alguna idea respecto a la invariabilidad de la velocidad de la luz para todos los observadores en movimiento relativo uniforme, éste le había respondido: No; era una simple curiosidad. Que la velocidad de la luz pudiera cambiar en relación con el movimiento del observador estaba, en cierta forma, caracterizado por la duda. Desarrollos posteriores contribuyeron a aumentar esa duda”.

Sin embargo, como le contó a Wertheimer, sólo después de años de pensar en esa paradoja se sintió compelido a considerar la velocidad de la luz como una invariable fundamental, independiente del movimiento del observador, porque esa idea estaba en conflicto con los puntos de vista tradicionales concernientes a la medición del movimiento. Luego, ¿cómo es que debe medirse el movimiento? Einstein comprendió que ello dependía de la medición del tiempo. “Es que estoy viendo con claridad -se preguntó a sí mismo- la relación, la conexión interna entre la medición del tiempo y la del movimiento”?

Entonces se le ocurrió pensar que la medición del tiempo depende de la idea de simultaneidad. Repentinamente se encontró ante el hecho de que, aunque esta idea es perfectamente clara cuando dos acontecimientos se producen en el mismo lugar, no era igualmente clara cuando los acontecimientos se producen en diferentes lugares.

Ese fue el momento crucial de su pensamiento. Einstein se dio cuenta que habla descubierto una gran brecha en el tratamiento clásico del tiempo. Le costó alrededor de diez años llegar a este punto, pero desde el momento en que se dispuso a cuestionar la idea tradicional de tiempo, sólo necesitó cinco semanas para escribir su trabajo^ a pesar de que entonces se hallaba trabajando a jornada completa en la Oficina de Patentes de Berna.

El pensamiento crítico que condujo a Einstein a abandonar el concepto clásico de simultaneidad universal, fue estimulado por su interés en la filosofía. Poco después de haberse trasladado a Berna en 1902, conoció a un estudiante rumano llamado Maurice Solovine, que se dedicaba al estudio de ambas disciplinas, la física y la filosofía, y a un estudiante suizo llamado Conrad Habicht. Con frecuencia los tres se reunían por las tardes a leer juntos y a discutir a los clásicos de la filosofía, como Platón, Kant, Stuart Mills, Poincaré y otros.

La vida en Berna le fue atractiva y estimulante en muchos aspectos, además de proporcionarle su trabajo una buena remuneración y la posibilidad de conocer y estudiar los muchos inventos que se presentaban a la Oficina, en los que siempre manifestó una grande y generosa curiosidad, especialmente por la disparidad de caracteres libres que eran los inventores.

Pero mientras Einstein se sentía gradualmente conducido a cuestionar el concepto clásico de tiempo, también se estaba convirtiendo de manera creciente en un escéptico de la idea mecanicista de que las ondas electromagnéticas en el espacio vacío debían ser consideradas como oscilaciones en un medio universal sumamente peculiar llamado “éter”. De hecho, las propiedades de este medio le parecían que desafiaban una explicación mecánica.