Biografía de Albert Einstein

Biografia de Ramon Cajal Santiago y Su Obra Científica Premio Nobel

Biografía de Ramón Cajal Santiago y Su Obra Científica

Santiago Ramón y Cajal nace en Petilla de Aragón el 1 de mayo de 1852, hijo de Justo Ramón y Antonia Cajal. Toda su niñez y adolescencia van a estar marcados por los continuos cambios de residencia entre las distintas poblaciones del Alto Aragón, traslados motivados por la profesión de médico que ejercía su padre. Su formación se inició en Valpalmas, donde acudió a la escuela local, aunque de hecho su primer maestro fue su propio padre, que le enseñó a leer y a escribir, le inició en la aritmética, en geografía y en francés.

En el año 1860 su padre es nombra do médico en Ayerbe, y toda la familia se traslada a dicha localidad. Allí se convirtió en un pésimo estudiante y se acentuaron sus travesuras al verse más desatendido por su padre. Por estos motivos le enviaron a estudiar el bachillerato al colegio de los Escolapios de Jaca en 1861.

El régimen de terror imperante en dicha institución hizo sus padres cambiar de opinión y le mandaron a estudiar al instituto de Huesca. Durante estos años y por orden expresa de su padre, compagina los estudios con el trabajo en una barbería.

ramon y cajal santiago cientifico

Santiago Ramón y Cajal (1852-1934): histólogo español obtuvo el Premio Nobel de Fisiología y Medicina en 1906. Pionero en la investigación de la estructura fina del sistema nervioso, Cajal fue galardonado por haber aislado las células nerviosas próximas a la superficie del cerebro.  En 1892 se instaló en Madrid y fue nombrado catedrático de histología de la universidad de Madrid, donde trabajó y prolongó su labor científica hasta su muerte.

En 1873, ganó por oposición una plaza de Sanidad Militar y al siguiente año fue destinado a Cuba con el grado de capitán. Se doctoró en Madrid en 1877. En 1879 fue, por oposición, director de Museos Anatómicos de la Universidad de Zaragoza; catedrático de Anatomía en la Universidad de Valencia (1883).

Fruto de sus trabajos fue el Manual de Histología y técnica micrográfica (1889). Catedrático de Histología en la Universidad de Barcelona (1887), dio a conocer poco después sus grandes descubrimientos sobre las células nerviosas. En 1892 obtuvo la cátedra de Histología normal y Anatomía patológica de la Universidad de Madrid.
El Gobierno español creó el Laboratorio de Investigaciones Biológicas y la revista Trabajos de Laboratorio, que substituyó a la Revista trimestral de Micrografia, publicada por él desde 1897, y le encomendó la dirección de ambos.
Entre 1899 y 1920 dirigió el Instituto Nacional de Higiene; en 1906 compartió con C. Golgi el premio Nobel de Medicina por sus investigaciones acerca de la estructura del sistema nervioso. Además de la obra citada, deben mencionarse entre las fundamentales las siguientes; Textura del sistema nervioso del hombre y de los vertebrados (1899-1904), Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Reglas y consejos sobre investigación biológica.
clase de disección dada por Ramón Cajal
SOBRE SU TRABAJO CIENTÍFICO:
Teoría de la neurona
1889: De todas las células, las nerviosas parecen las más complejas, y de todos los órganos y sistemas de órganos, el cerebro y el sistema nervioso parecen los más complejos. Además, de todas las partes del cuerpo humano, el cerebro y el sistema nervioso son, o deberían ser, los más interesantes, puesto que determinan nuestra condición de humanos.
Waldeyer-Hartz (véase 1888) fue el primero en sostener que el sistema nervioso estaba constituido por células separadas y por sus delicadas extensiones. Estas últimas, señalaba, se aproximaban entre sí pero no llegaban a tocarse y mucho menos a juntarse, de modo que las células nerviosas permanecían separadas. Llamó a las células nerviosas neuronas, y su tesis de que el sistema nervioso está compuesto por neuronas separadas es la llamada teoría de la neurona.
El histólogo italiano Camillo Golgi (Í843 o 1844-1926) había ideado quince años antes un sistema de tinción con compuestos de plata, que ponía al descubierto la estructura de las neuronas con todo detalle. Utilizando esa tinción, pudo demostrar que la tesis de Waldeyer-Hartz era correcta.
En efecto, mostró que en las neuronas se operaban complejos procesos, pero que los de una no afectaban a los de sus vecinas, pese a estar muy próxima a ellas. Los delgados espacios que las separaban se llaman sinapsis (es curioso que esta palabra derive de la griega que significa «unión», pues a simple vista parece que se unen, pero en realidad no es así).

Santiago Ramón y Cajal (1852-1934) perfeccionó la tinción de Golgi, y en 1889 desentrañó la estructura celular del cerebro y del bulbo raquídeo con detalle, fundamentando sólidamente la teoría de la neurona. Por sus trabajos sobre la teoría de la neurona, Golgi y Ramón y Cajal compartieron el premio Nobel de medicina y fisiología en 1906.

En 1904 concluye su gran obra Textura del sistema nervioso del hombre y de los vertebrados. Dos años después, en 1906, recibe junto al histólogo italiano Golgi el premio Nobel de Fisiología y Medicina.
 
SUS OBRAS: Su labor incesante durante toda su vida se ve plasmada en otras obras como Estudios sobre degeneración y regeneración del sistema nervioso (1913-14), Manual técnico de anatomía patológica (1918) y la creación de nuevos métodos como el del formal urano para la tinción del aparato endoneuronal de Golgi y la técnica del oro sublimado.
En 1922 se jubila como catedrático y le es concedida la medalla de Echegaray. Durante sus últimos años sigue publicando nuevas obras como Técnica micrográfica del sistema nervioso y ¿Neuronismo o reticulismo?, considerada como su testamento científico.
Su vida concluyó en Madrid el 17 de octubre de 1934 pero su obra siguió y sigue viva gracias a la creación de la institución científica que lleva su nombre.
ramon y cajal
En 1952 se rindió un homenaje a don Santiago en «Hipócrates Sacrum» en Montpellier; sus discípulos, doctor Turchini y doctor Paulís, muestran una abundante ilustración sobre la vida de Ramón y Cajal.
A pesar de la natural aversión que Ramón y Cajal sentía por la relación social, su extraordinaria popularidad y prestigio mundiales le obligaron a frecuentar los círculos selectos, políticos, intelectuales y distinguidos de la época. Tuvo ocasión así de relacionarse con las personalidades más destacadas de la nación: José Echegaray, Menéndez y Pelayo, Benito Pérez Galdós,  José Canalejas, conde de Romanones, Pelayo, Maura, Silvela y tantos otros
SU OBRA DURANTE LA PRIMERA GUERRA MUNDIAL
En 1914 el cruel estallido de la Primera Guerra Mundial conmovió a toda Europa. Aunque España guardó neutralidad, en su interior se vivía una política muy agitada. Pero ajenos, o casi ajenos, a los tristes acontecimientos europeos y españoles, don Santiago y sus colaboradores continuaban sin desfallecer sus investigaciones en el laboratorio. Las dificultades eran mayores que en tiempos pasados.
Trabajaban aislados, porque la guerra había roto toda comunicación entre los sabios europeos. Desconocían, pues, cuantos adelantos científicos se producían en el mundo. Los materiales y el equipo, que debían importarse, habían elevado excesivamente su costo y aumentado las dificultades de obtención.
También la cuestión de imprenta había elevado sus precios hasta hacerlos prácticamente inasequibles a las posibilidades del laboratorio. Todo eran problemas para don Santiago. No obstante, el tesón y la voluntad hicieron milagros y el equipo de investigadores logró varios descubrimientos importantes.
Una vez terminada la guerra y restablecida la comunicación en el mundo científico, Ramón y Cajal sufrió las mayores tristezas. Los que eran sus mejores amigos, admiradores y seguidores de su obra, habían muerto. Así, van Gebuchten, Waldeyer, Retzius, Ehrlich, Krause y Edinger. Sólo quedaban algunos científicos americanos interesados en sus investigaciones, pero no conocían el español.
Y entonces puso rápidamente manos a la obra, para remediar aquel error de previsión suyo. Hizo que se tradujesen al alemán, francés e inglés los trabajos más importantes suyos y de sus colaboradores, aunque tuvo que pasar por la amarga decepción de que, en general, sus trabajos quedaban desconocidos, pues eran varios los científicos que se atribuían descubrimientos hechos por él años antes.
UN GRAN CURIOSO PRECOZ:
Las continuas travesuras de Santiaguo tenían la virtud de acabar la paciencia del maestro, y no era para menos. Como castigo solía mandarlo al «cuarto oscuro», habitación casi subterránea habitada por abundantes ratas. A los demás chicos este castigo les horrorizaba, pero al indómito Santiaguo le servía para preparar con calma y tranquilidad las travesuras del día siguiente.
Fue en una de aquellas solitarias estancias en el «cuarto oscuro» cuando descubrió lo que él creyó algo nuevo, el principio de la cámara oscura. Pero se trataba de un descubrimiento físico ya hecho por Leonardo de Vinci. El cuarto tenía un solo ventanuco que daba a la plaza del pueblo, en la que batía el sol. Un día, estaba Santiagué mirando distraídamente el techo, cuando se dio cuenta de que el rayo de luz que penetraba por la rendija del ventanuco proyectaba en el techo, cabeza abajo y con sus propios colores, las personas, carretas y caballerías que pasaban por el exterior.
Quiso ensanchar la rendija y las figuras se desdibujaron y hasta se desvanecieron. Entonces la hizo más estrecha con la ayuda de papeles y observó que cuanto más pequeña era la rendija más vigorosas y detalladas se hacían las figuras. El descubrimiento le dio qué pensar y acabó por convencerse, con sus infantiles conclusiones, de que la física era una ciencia maravillosa.
A partir de aquel día Santiagué sacó el máximo provecho de sus castigos, pues se dedicó a calcar sobre papel las vivas y coloreadas figuras que llegaban hasta su prisión para aliviar su soledad. No es de extrañar que si hasta entonces el «cuarto oscuro» no había sido para él un castigo penoso, menos lo fuese desde que hizo su descubrimiento, llegando a tomar verdadero cariño a su cárcel y sus sombras brillantes.
monumento de ramon y cajal
La gloria se hizo piedra en este monumento de Victorio Macho. La fuente de la vida y de la muerte mezclan sus aguas, mientras los ojos del sabio quieren escudriñar el hondo misterio que les junta.
Fuente Consultada:
Gran Enciclopedia Universal Espasa Calpe Tomo 32 Entrada: Ramón y Cajal
Celebridades Biblioteca Hispania Ilustrada Edit. Ramón Sopena
Historia y Cronología de la Ciencia y Los Descubrimientos Isaac Asimov

 

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas. La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios. Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él. Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte. Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno. En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10. Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía. Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides. Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo. La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

Funcionamiento de Olla a Presión Historia de Papin Denis

FUNCIONAMIENTO: Las ollas a presión suponen un enorme ahorro de tiempo en la cocina, ya que, permiten cocer los alimentos en un plazo mucho menor del requerido normalmente. El tiempo necesario para la cocción depende mucho de la temperatura del alimento y del ambiente que lo rodea. Por ejemplo, un trozo de carne tarda mucho más en asarse en un horno a fuego lento que si se aumenta la temperatura. Sin embargo, si ésta se aumenta demasiado, la carne se quema, en vez de cocerse como es debido.

Lo mismo ocurre cuando los alimentos se cuecen en agua. Por ejemplo, un huevo metido en agua a 80°C, tarda mucho más en cocerse que si el agua está hirviendo. Así, pues, el tiempo de cocción depende de la temperatura. Si se mide la temperatura a intervalos durante la cocción del huevo, se ve que aquélla aumenta, hasta que el agua comienza a hervir, y entonces permanece constante a 100°C

El proporcionarle mas calor no altera la temperatura: lo único que ocurre es que el agua hierve más vigorosamente. Bajo condiciones atmosféricas normales, el agua pura hierve a 100°C. Sin embargo, el punto de ebuffieión del agua varía con la presión. En la cumbre de una montaña elevada, donde el aire está enrarecido y la presión es inferior a la normal, el agua hierve a una temperatura más baja. Si por algún procedimiento se aumenta la presión del gas sobre el agua, su punto de ebullición sube.

Esto es exactamente lo que ocurre en las ollas a presión. Aumenta la presión del gas dentro de ellas y, por lo tanto, el punto de ebullición del agua que contienen, con lo cual los alimentos se cuecen más rápidamente a temperaturas más altas.

El agua hierve a 100 °C, a la presión atmosférica normal (1,03 kg. por centímetro cuadrado) . Si se aumenta la presión a 1,4 kg./cm2., hierve a 108 °C; si se incrementa a 1,75 kg./cm., lo hará a 115°C., y así sucesivamente. De hecho, algunas ollas trabajan a una presiones dos veces mayor que la atmosférica.

Las ollas a presión tienen que ser lo bastante sólidas para soportar las fuertes presiones, y la tapa ha de cerrar herméticamente, para que la presión interior se mantenga sin que se produzcan fugas.

La tapa lleva un punto débil, colocado deliberadamente para que actúe como dispositivo de seguridad, ya que, en caso de que se obstruyera la válvula de seguridad a través de la cual escapa normalmente el vapor, la olla podría convertirse en una bomba, de no existir dicho dispositivo, pues a medida que se siguiera aplicando calor la presión iría aumentando, hasta que, finalmente, explotaría.

Pero la olla no es tal arma mortífera y no ocurre eso, ya que, cuando la presión aumenta demasiado, la válvula de seguridad se abre y escapa el exceso de gas. En el centro de la tapa, hay un orificio en el que se asienta un manómetro de aguja, que lleva un peso. Se comienza la cocción sin colocar la válvula.

corte de una olla a presión

Corte de una olla a presión

El agua hierve a la presión atmosférica y la olla va llenándose de vapor, hasta que, por fin, brota un chorro de éste por el orificio. Entonces, se coloca el manómetro y el orificio queda bloqueado.

Esto impide que escape el vapor y, con ello, aumenta la presión. A medida que esto ocurre, el vapor acciona sobre el dispositivo, hasta que brota una nube que indica que la presión deseada se ha alcanzado. En este momento, debe regularse el gas o la electricidad, para mantener la presión.

Cuando se ha acabado la cocción, hay que enfriar la olla bajo la canilla de agua. El agua fría elimina calor de aquélla, y una parte del vapor interior se condensa en forma de gotitas acuosas. Con lo cual, al reducirse la cantidad de vapor, la presión disminuye. Entonces se puede abrir la olla.

Fuente Consultada: Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°126

SOBRE LA VIDA Y OBRA DE DENIS PAPIN: Uno de los trece hijos de un burgués protestante de Blois, llamado Denis Papin se orienta primero hacia la medicina, mostrando en la facultad de Angers un interés precoz por la mecánica y la cuestión de la conservación de los cadáveres. Su habilidad manual hace que repare en él un abate muy conocido, que lo recomienda a Christiaan Huygens, “inventor del reloj de péndulo”, como se lo presentaba entonces.

Retrato de Denis Papin (1647-1714). Trabajó con Robert Boyle en la investigación sobre el aire. Es recordado por sus inventos y es considerado uno de los grandes pioneros de la máquina de vapor moderna. La máquina de vapor de Papin se compone de un cilindro con un pistón que es levantado por la presión del vapor, y es descendente produciendo el trabajo.

Pilar de la Academia Real de Ciencias, dotado por el Rey de 1.200 libras de renta, el sabio holandés se instaló en la Biblioteca real, donde procedió a realizar múltiples experiencias. Es allí donde el joven Papin, brillante posdoctorado estilo siglo XVII, se inicia en la tecnología de la “bomba al vacío”, al tiempo que lleva a cabo investigaciones inéditas sobre la conservación de los alimentos. Para el gran asombro de Huygens, logra mantener una manzana en condiciones, bajo vacío, ¡durante cinco meses!.

Como los laboratorios de física no eran muy numerosos en 1675, no es nada sorprendente encontrar al joven oriundo de Blois en Londres, en casa de Robert Boyle, aristócrata de fortuna apasionado por la mecánica.

Provisto de un contrato bastante ventajoso pero que estipula el secreto, Papin construye para su amo bombas de un nuevo género (dos cilindros hermanados conducidos por una palanca común que permite una aspiración continua), con las cuales termina por efectuar las experiencias él mismo. Boyle nunca ocultará lo que le debe a su técnico francés, a quien cita con abundancia en sus publicaciones pero cuyos textos, aclara, reescribe sistemáticamente.

Es en ese laboratorio donde la gloria viene a coronar la doble obsesión, mecánica y culinaria, de Papin. Al adaptar una sopapa de seguridad, que inventa para la ocasión, sobre un recipiente metálico herméticamente cerrado con dos tornillos, crea el “digestor”, o “baño maría de rosca”, que se convertirá en la olla a presión, cuyo vapor pronto silba en las cocinas del Rey de Inglaterra y en la sala de sesiones de la Academia real de París.

Dice Denis: “Por medio de esta máquina , la vaca más vieja y más dura puede volverse tan tierna y de tan buen gusto como la carne mejor escogida”, y en la actualidad no se concibe adecuadamente el impacto que podía tener una declaración semejante: en 1680, a los treinta y tres años, Papin es elegido miembro de la Royal Society, como igual de sus famosos empleadores, incluso si su nivel de vida sigue siendo el de un técnico.

Aunque en 1617 se haya instalado en Inglaterra un sistema de patentes, a Papin no le parece de ninguna utilidad interesarse en eso. Mientras los artesanos ingleses hacen fortuna fabricando su marmita, él solicita a Colbert una renta vitalicia… que le es negada.

De todos modos, ahí lo tenemos, lanzado en el jet set intelectual de la época. Lo vemos disertando sobre la circulación de la sangre en casa de Ambrose Sarotti, en Venecia, experimentando con Huygens en París sobre la bomba balística (un pesado pistón puesto en movimiento por una carga de pólvora) y lanzando en Londres su candidatura al secretariado de la Royal Society.Por desgracia, el elegido será Halley.

Fatigado, sin dinero, Papin agobia a la Royal Society con candidos pedidos, antes de desaparecer definitivamente en 1712.

Fuente Consultada: Una Historia Sentimental de las Ciencias Nicolas Witkowski

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

LA  ELECTRÓLISIS  DEL AGUA

El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno. Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos. No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene. Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—). Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino. Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad. Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno. En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la “Schmidt-Oerlikon” que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES:
Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que” tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

La Primer Cosechadora Mecánica de McCormick Historia

Historia de la Primera Cosechadora automática
La historia de los inventos está jalonada de obstáculos y éxitos. La marcha hacia el oeste creó un obstáculo: la falta de brazos en la época de la siembra. Los agricultores no se atrevían a sembrar muchas hectáreas de trigo, por cuanto era necesario proceder a la siega en un lapso breve. Los molinos de harina permanecían inactivos porque no había suficiente trigo sembrado.

El éxito tuvo lugar en 1840 con el advenimiento de la segadora de Cyrus McCormick. Los agricultores se animaron a sembrar más hectáreas, pues se las podía segar en poco tiempo con una máquina. De la escasez de trigo se pasó a la abundancia.

La segadora mecánica de McCormick cortaba el trigo con cuchillas movibles colocadas en barras derechas. El movimiento rotativo de la pesada rueda maestra hacía girar las cuchillas mientras los caballo:; avanzaban. Un alambre metálico giratorio colocaba el grano contra la cuchilla y ponía los tallos cortados sobre la plataforma situada detrás de ésta. Hayos en forma de dedos, que se extendían desde la plataforma, evitaban que el grano escapara por los costados al cortarlo.

Más tarde, McCormick perfeccionó dispositivos que enderezaban el cereal para hacer más fácil la siega , formar haces de los tallos cortados.

Dado que cada agricultor podía comprar una segadora con un pago al contado reducido, la venta fue mayor que la fabricación. La producción total de trigo se triplicó con creces.

La historia había cobrado nuevo ritmo. Se carpieron las selvas americanas y se sembró trigo en muchos campos. Un grupo de colonos llevó consigo un molinero que quizo instalar su molino automático Evans a orillas de un río. Estas primeras colonias siempre se desarrollaron alrededor de molinos y se esparcieron las ciudades molineras por toda la campiña.

Cuando las segadoras McCormick comenzaron a segar el grano, los ferrocarriles penetraron en las nuevas zonas agrícolas, a fin de transportar los sobrantes de harina a los puertos del este y de allí a las naciones de Europa.

Los Estados Unidos nunca perdieron esta ventaja en cuanto a su agricultura. Hoy en día, máquinas de autopropulsión siegan automáticamente el grano que se trilla en seguida, desechando los desperdicios inservibles, y luego se llenan bolsas de granos de maíz. El Hombre Mecánico convierte en jardines los desiertos y en canastos de pan las selvas.

Cyrus Hall McCormick inventó la cosechadora mecánica: Cyrus McCormick, el “padre de la agricultura moderna”, hizo una de las contribuciones más significativas a la prosperidad de los Estados Unidos, cuando inventó la segadora tirada por caballos en 1831.

1831 Cyrus Hall McCormick hizo una demostración de su cosechadora mecánica en la Taverna Steele, Virginia. La cosechadora podía cortar 10 acres por día el equivalente al trabajo de cinco hombres. Posteriormente, el acrecentó un recurso de auto-recolección que permitía que un hombre cortase 40 acres en un día. El patentó la cosechadora en 1834.

1842 Jerome Increase Case funda Racine Threshing Machine Works en Racine, Wisconsin.

1848 Cyrus Hall McCormick funda McCormick

1842 Jerome Increase Case funda Racine Threshing Machine Works en Racine, Wisconsin.

1848 Cyrus Hall McCormick funda McCormick Harvesting Machine Company en Chicago, Illinois.

1851 La cosechadora mecánica de McCormick gana la Medalha de Oro en la Exposición Real del Palacio de Cristal en Londres, Inglaterra. McCormick ingresa en el mercado europeo.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Inventos de Edison Bombilla Eletrica Fonografo Historia y Evolución

Thomas Alva Edison es uno de los más famosos inventores de América: perfeccionó el telégrafo, el teléfono, inventó el mimeógrafo, aportó al cine y la fotografía, para, finalmente, gravar su nombre en el primer fonógrafo. Fue responsable de importantes cambios en la ciencia.

Sus inventos creados han contribuido a las modernas luces nocturnas, películas, teléfonos, grabaciones y CD’s. Edison fue realmente un genio. Edison es famoso por su desarrollo de la primera ampolleta eléctrica.

El fonógrafo de tinfoil fue la invención favorita de Edison. Hacia 1877, inventó la “máquina que habla” por accidente, mientras trabajaba en telegrafía y telefonía; pero el fonógrafo no salió a la venta sino hasta 10 años después. También trabajó en una máquina para grabar mensajes telegráficos automáticamente.

La primera demostración práctica, coronada con un éxito completo, tuvo lugar en Menlo Park, el 21 de octubre de 1879, y dio paso a la inauguración del primer suministro de luz eléctrica de la historia, instalado en la ciudad de Nueva York en 1882, y que inicialmente contaba con 85 abonados.

Para poder atender este servicio, Edison perfeccionó la lámpara de vacío con filamento de incandescencia, conocida popularmente con el nombre de bombilla, construyó la primera central eléctrica de la historia (la de Pearl Street, Nueva York) y desarrolló la conexión en paralelo de las bombillas, gracias a la cual, aunque una de las lámparas deje de funcionar, el resto de la instalación continúa dando luz.

La Primer Llamada Telefonica de la Historia Bell Inventor

La Revolución Industrial popularizó tanto los avances científicos como sus aplicaciones técnicas; el ferrocarril, la electricidad, el teléfono o las vacunas consiguieron que en la mentalidad de las sociedades europea y americana se estableciese el ideal de progreso continuado y una fe ciega en las posibilidades de la ciencia y la técnica: las exposiciones universales fueron un ejemplo de esta actitud.

Los propios científicos se convirtieron en propagandistas del progreso con la creación de instituciones y sociedades dedicadas a esta tarea, como la Royal Institution, fundada por Rumford en Londres (1 799) y animada por científicos como Davy y Faraday. Pronto se iniciará también una colaboración internacional plasmada en la celebración de congresos como los de estadística (1853), química (1860), botánica (1864) y medicina (1867).

Otro hecho interesante que hay que destacar es el de la conversión de la actividad científica en un acontecimiento de amplias repercusiones sociales, es decir, en un fenómeno sociológico. Las aplicaciones de la física en la industria, o de la biología en la medicina, provocaron el cambio de actitud de la sociedad frente a los avances científicos. Los gobiernos que desde el siglo XVI impulsaron la fundación de universidades y academias, iniciarán, a partir del despotismo ilustrado y por influencia de los enciclopedistas, una actuación que se podría calificar de «política científica».

Estas acciones supondrán la extensión de la enseñanza superior, cambios en los planes de estudio y realización de tareas científico-técnicas fomentadas y financiadas por las monarquías del Antiguo Régimen. Academias, observatorios y expediciones científicas se prodigarán en Europa durante el siglo de las Luces.

Una derivación del telégrafo que finalmente tuvo un efecto igual de grande fue el teléfono. Patentado en Estados Unidos en 1876 por Alexander Graham Bell, y perfeccionado por el inventor Tomás Alva Edison, el teléfono pronto se asentó. En 1884, la compañía de Bell puso en funcionamiento la primera línea de larga distancia entre Boston y Nueva York. Las redes de cables, parte vital para las comunicaciones, fueron desarrolladas en varias naciones. Marcar los números sin recurrir a la operadora aceleró el proceso telefónico y, poco después, la mayoría de las grandes ciudades contaron con sus propias redes.

El teléfono en una exposición: Es casi seguro que Bell no se diese cuenta de la inmensa trascendencia de su invento, pero lo cierto es que en el mes de julio de 1876, se celebró en Filadelfia una gran exposición con motivo de la conmemoración de la independencia de Estados Unidos.

Es muy posible que Bell no pensara llevar su invento a dicha exposición, puesto que tal vez consideraba que el aparato, compuesto por un receptor harto rudimentario, un transmisor y un hilo que hacía vibrar la membrana metálica, que Bell ya había patentado con el nombre de teléfono, no era digno de figurar en una exposición de tanto prestigio.

Pero intervino el amor. Efectivamente, Bell fue a la estación de Boston a despedir a su amada que, junio con su padre, se marchaba a Filadelfia. El joven subió a un vagón, incapaz de contener los impulsos de su enamorado corazón, y así llegó a la capital di Pennsylvania. Luego, pidió por carta a Watson que le enviase el aparato, y logró exponerlo en un rincón

Durante varios días nadie se acercó a conocer su invento. Pero de pronto se produjo el milagro. El mismo  día en que la Comisión se disponía a conceder los diversos premios establecidos, un personaje con gran séquito, nada menos que el emperador Pedro, del Brasil, se acercó a la mesa de Bell. Lo cierto era que el emperador había conocido al joven Bell cuando éste enseñaba a los sordomudos en su país. Tan pronto como el Emperador reconoció a Bell, lo abrazó, con gran asombro de todos los presentes y, como es natural, todos se interesaron por el inventor y su invento.

El propio Emperador, después de oír unas palabras a través del receptor, exclamo:
—Este aparato habla!

Estas palabras cambiaron por completo la vida y la fortuna de Alexander Graham Bell. La aludida Comisión estudió el aparato, y de aquella exposición surgieron dos cosas importantísimas en la vida de Bell: su boda con su amada y la intervención de su suegro en las patentes del joven, todo lo cual tuvo como epílogo la producción del teléfono en serie, su perfeccionamiento y su propagación por todo el mundo.

Sólo hubo una amargura en medio de su triunfo:
Bell, que había dedicado gran parte de su juventud a enseñar a vocalizar y hablar a los sordomudos, jamás consiguió que su linda esposa, sordomuda también, llegase a hablar y a oír a su marido, ni por teléfono ni de viva voz.

ANTECEDENTES DE LA ÉPOCA: Las ventajas materiales constantemente crecientes y a menudo espectaculares, generadas por la ciencia y la tecnología, dieron lugar a un aumento de la fe en los beneficios de esta rama del saber y el hacer humanos. Aun la gente ordinaria que no entendía los conceptos teóricos de la ciencia estaba impresionada por sus logros.

La popularidad de los logros científicos y tecnológicos condujo a la extendida aceptación del método científico, basado en la observación, el experimento y el análisis lógico, como único camino a la verdad y a la realidad objetivas. Esto, a su vez, minó la fe de mucha gente en la revelación y la verdad religiosas. No es por accidente que el siglo XIX llegó a ser una época de creciente secularización, que de manera particular se manifiesta en el crecimiento del materialismo o la creencia de que todo lo mental, espiritual o sentimental era, sencillamente, una excrecencia de las fuerzas físicas.

La verdad había de encontrarse en la existencia material concreta de los seres humanos, no como la imaginaban los románticos, en las revelaciones obtenidas por destellos del sentimiento o de la intuición.

La importancia del materialismo fue asombrosamente evidente en el acontecimiento científico más importante del siglo XIX, el desarrollo de la teoría de la evolución orgánica mediante la selección natural. Sobre las teorías de Charles Darwin podría construirse un cuadro de los seres humanos como seres materiales, que eran parte sencillamente del mundo natural.

Primera Asociacion Internacional de Trabajadores del Mundo

La Primera Internacional y la Comuna

La expansión del sistema capitalista a través de la industrialización progresiva del continente generalizó las condiciones de vida de los obreros, pero también sus reivindicaciones. Al mismo tiempo, la actuación coordinada de los diferentes gobiernos contra los opositores políticos redundaba en la necesidad de la cooperación más allá de la diversidad nacional.

La toma de conciencia por parte de la clase trabajadora fue más rápida que la manifestación práctica de esa doble realidad. Los primeros intentos organizativos sucumbieron a causa de las numerosas tendencias socialistas y la represión gubernamental. La recuperación del asociacionismo obrero tras las revoluciones de 1848 creó nuevas expectativas gracias a la aportación marxista. Ambos factores condujeron a la fundación de la Asociación Internacional del Trabajadores (AIT) en 1864, conocida históricamente como la Primera Internacional.

Como decíamos antes, en 1864 se fundó en Londres la Asociación Internacional de Trabajadores, formada por sindicatos ingleses y franceses de obreros especializados, buscando en ella más una asistencia mutua de tipo sindical que un programa de acción política de tipo colectivista, a pesar de que Marx fue su principal impulsor y quien redactó el mensaje inaugural: “La Internacional es prohibida en la mayor parte de los países y aunque divisiones internas entre anarquistas y marxistas le restan mucha fuerza, aun así consiguió cierta extensión, no solamente en Europa, sino también en Estados Unidos”.

Los antecedentes más cercanos acerca de una organización internacional de trabajadores se encuentran en la Liga de los justos (1826), convertida a instancias de Marx en Liga de los Comunistas. Otros precursores fueron la británica Fraternal Democrats y la belga Association Démocratique. El último paso está representado por la International As

ESTATUTO DE LA PRIMERA INTERNACIONAL

Art. 1°: Se establece una asociación para procurar un punto central de comunicación y de corporación entre los obreros, de diferentes países, que aspiran al mismo objetivo, a saber: el concurso mutual, el progreso y la total liberación de la clase obrera.

Art. 2°: El nombre de esta asociación será: Asociación Internacional de Trabajadores.

Art. 3°: En 1865 tendrá lugar, en Bélgica, la reunión de un Congreso General. Este Congreso deberá dar a conocer a Europa las comunes aspiraciones de los obreros, concluir el reglamento definitivo de la Asociación Internacional, examinar los mejores medios para asegurar el éxito de su trabajo y elegir el Consejo General de la Asociación. El Congreso se reunirá una vez al año.

Art. 4°: El Consejo General radicará en Londres y constará de obreros que representan a las diferentes naciones que formen parte de la Asociación Internacional. (…)

En París, en 1871, se produjo una insurrección obrera que consiguió controlar la ciudad durante más de un mes.

La Comuna fue una sublevación espontánea contra los elementos conservadores que habían triunfado en las elecciones, a pesar de haber sido los responsables de la derrota, los sufrimientos del asedio de la ciudad y la capitulación frente a los prusianos.

El manifiesto de la Comuna fue un auténtico proyecto para crear un Estado socialista formado por municipios comunes— libres y autónomos, federados entre sí a nivel nacional e incluso internacional. Se adoptó la bandera roja como enseña, se decreté la separación de la Iglesia y el Estado, y se realizó una avanzada legislación social que reglamentaba el trabajo.

La Comuna de París tendría una enorme resonancia en el mundo, tanto entre el dividido movimiento obrero, que por primera vez veía la realización práctica de sus programas, como entre las burguesías y los gobiernos europeos, que se disponían a tomar medidas represivas en previsión de hechos similares.

La Comuna, totalmente aislada y sin ningún apoyo exterior, fue aplastada después de una terrible represión del ejército francés; se calcula que el número de ejecuciones ascendió a unas 20 mil. Con ello también la Internacional en el Congreso de La Haya, de 1872, entró definitivamente en crisis, tanto por los enfrentamientos internos como por su fracaso en acudir en ayuda de la Comuna de París o en no haber logrado evitar la guerra franco-prusiana, que fue un preludio del fracaso similar del movimiento obrero europeo de 1914.

La fundación. La Primera Internacional surgió de la colaboración entre las clases obreras británica y francesa, en consonancia con la mayor industrialización de sus respectivos países. El sindicalismo británico practicaba una acción reformista sin ninguna referencia al socialismo. Las corporaciones de oficios (trade-unions) sólo agrupaban a los obreros cualificados, interesados en ampliar los derechos políticos y sindicales.

Logros cientificos Siglo XIX Teoria Electromagmetica de Maxwell

La caída del principio de “libre competencia”, bajo la aplastante tendencia a la concentración de la producción y los capitales en la segunda fase de la Revolución Industrial, supuso también una transformación importante en el desarrollo del quehacer científico y en la elaboración de las nuevas técnicas. Durante el proceso de la industrialización, el desarrollo científico y técnico no conocía más ritmos que el de un progreso lineal constante. Sin embargo, la producción científica caminaba dentro de los márgenes de una cierta autonomía, pero siempre bajo la tutela del empresario capitalista emprendedor.

El estímulo económico de la libre competencia repercutía, sin duda, en el campo de la investigación. Por otra parte, las fuertes crisis cíclicas del capitalismo industrial, fundamentalmente de superproducción, forzaban a condicionar la técnica a una continua depuración. Había un hilo común que iba de estas crisis de superproducción, a través de la caída de los precios y el desempleo que produce el maquinismo, hasta la caída del nivel de consumo de las clases trabajadoras.

JAMES C. MAXWELL En la historia de la ciencias  hay algunos científicos virtualmente desconocidos para el gran público, aunque sus logros sean casi tan importantes como los de los de Einstein, Darwin y Newton. Éste es el caso del físico escocés James Clerk Maxwell.

Los científicos profesionales, y los físicos en particular, lo reconocen como uno de los más inteligentes e influyentes que hayan vivido nunca, pero fuera de los círculos científicos su nombre apenas es conocido.

Maxwell nació en Edimburgo, en 1831, el mismo año en que Faraday logró su máximo descubrimiento, la inducción electromagnética, en 1831. Descendiente de una antigua familia de nobles blasones, Maxwell era un niño prodigio. En 1841 inició sus estudios en la Academia de Edimburgo, donde demostró su excepcional interés por la geometría, disciplina sobre la que trató su primer trabajo científico, que le fue publicado cuando sólo tenía catorce años de edad.

A pesar de que su madre murió cuando tenía ocho años, tuvo una infancia feliz. A una edad temprana ya demostró ser una promesa excepcional, sobre todo en matemáticas. Cuando tenía quince años, sometió un escrito sobre matemáticas a la Royal Society de Edimburgo, que asombró a todos los que lo leyeron. Al año siguiente tuvo la suerte de conocer al físico de setenta años William Nicol, que también vivía en Edimburgo.

Nicol había hecho un trabajo importante utilizando cristales para investigar la naturaleza y la conducta de la luz, y las conversaciones adolescentes de Maxwell con él hicieron que sintiera un interés por la luz y otras formas de radiación que le duró toda la vida.

Estudió matemáticas con sobresaliente en Cambridge y se graduó en matemáticas en 1854; siendo estudiante, tuvo la experiencia intelectual que definió su vida: la lectura de las Investigaciones experimentales en electricidad de Faraday. Todavía estudiaba cuando realizó una gran contribución al desarrollo del tema con un brillante escrito titulado Sobre las líneas de fuerza de Faraday.

Más tarde fue asignado a la cátedra de filosofía natural en Aberdeen, cargo que desempeñó hasta que el duque de Devonshire le ofreció la organización y la cátedra de física en el laboratorio Cavendish de Cambridge. Tal labor lo absorbió por completo y lo condujeron a la formulación de la teoría electromagnética de la luz y de las ecuaciones generales del campo electromagnético.

En 1856, a los veinticinco años, fue nombrado profesor en el Marischal College de Aberdeen; y en 1860 se trasladó al Kings College de Londres como profesor de filosofía natural y astronomía. Fue en esa época de la mudanza a Londres cuando realizó su primera gran contribución al avance de la física.

En tal contexto, Maxwell estableció que la luz está constituida por ondulaciones transversales del mismo medio, lo cual provoca los fenómenos eléctricos y magnéticos. Sus más fecundos años los pasó en el silencioso retiro de su casa de campo. Allí maduró la monumental obra «Trealise on Electricity and Magnetism» (1873).

James Clerk Maxwell falleció en Cambridge, el 5 de noviembre de 1879.

ALGO MAS…

1-Formuló la hipótesis de la identidad de la electricidad y la luz.

2-Inventó un trompo para mezclar el color y un oftalmoscopio, instrumento que permite ver el interior del ojo de una persona viva, o de un animal. Experimentalmente demostró que la mezcla de dos determinados pigmentos de pintura constituía un proceso diferente a la mezcla de los mismo colores de luz. Sus principios fundamentales sobre la mezcla de colores se emplea en la actualidad es la fotografía, la cinematografía y la televisión.

3-Maxwell corrigió a Joule, Bernouilli y Clausius que habían sostenido que propiedades de los gases como la densidad, la presión, le temperatura eran debidas a que un gas está compuesto de partículas de movimiento rápido y velocidad constante. Maxwell demostró que la velocidad no es constante y que varía de acuerdo con la curva de frecuencia en forma de campana que se conoce como ley de Maxwell. Sus descubrimientos han servido de fundamento a las teorías de las física del plasma. Maxwell inventó la mecánica estadística para analizar las velocidades moleculares de los gases.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

La vida será sofisticada y eficiente. ¿Cuáles serán los chiches de la nueva era? Valerie, el androide doméstico dotado de inteligencia artificial —y buenas piernas—, será uno. Nos dará una mano con la limpieza y llamará a la policía ante urgencias. Otra aliada de las tareas será Scooba, la aspiradora de iRobot, que con sólo apretar un botón fregará los pisos hasta los rincones más recónditos. Asimismo, la Polara de Whirlpool nos facilitará las cosas. Combina las cualidades de una cocina convencional y una heladera: será posible dejar un pollo en el horno para que se ase en el horario programado.

El gatito Cat de Philips habitará el hogar del mañana. Genera expresiones faciales— felicidad, sorpresa, enojo, tristeza— y será compinche de los chicos.

¿Qué habrá de nuevo a la hora de comer? “Se elegirán alimentos que hagan bien a la piel y al organismo. De todas formas, no faltará quien ingiera por elección o comodidad, comida chatarra mientras lea una revista de salud y se prometa: “mañana empiezo el régimen”, opina la cocinera Alicia Berger. “Además, la gente se preocupará por el origen y calidad de los alimentos, y se revalorizará lo casero”, revela.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaY al irse a la cama, será posible introducirse en una que soporta ataques terroristas o desastres naturales —de Quantum Sleeper— o portar un reloj pulsera Sleeptracker (foto izquierda) que vía sensores, detecta nuestro sueño superficial y justo ahí hace sonar la alarma para que el despertar sea lo menos fastidioso posible.

¿Y el sexo para cuándo? Mal que nos pese, cada vez tendremos menos ganas, tiempo y pasión. “Vamos hacia el sexo virtual por sobre el real al menos en las grandes ciudades del mundo”, confirma el doctor Juan Carlos Kusnetzoff, director del programa de Sexología Clínica del Hospital de Clínicas, quien adelanta que para levantar el ánimo —y algo más— se desarrollarán nuevas píldoras. “La industria farmacéutica desea lograrlo a toda costa”, agrega.

Ocio y tiempo libre para todos los gustos

En el campo de las nuevas tecnologías, la convergencia de la telefonía móvil y el hogar será un hecho. “El móvil podría permitir el acceso a los diferentes elementos que se quieran controlar, como un control remoto universal. Además se crearían nuevos sensores para avisarnos de situaciones que requieran nuestra atención y cámaras de seguridad para ver desde el teléfono lo que sucede en otro lugar”, cuenta Axel Meyer, argentino que desde el 2000 trabaja en el centro de diseño de Nokia Desing, en Finlandia. Y agrega “Los teléfonos con doble cámara ya permiten hacer videollamadas. Y también podremos ver la emoción del otro mientras miramos la misma película o un gol de nuestro equipo”, explica.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaEn robótica, los avances irán a gran velocidad. Ya se está desarrollando en la Universidad de Tokio la piel de robot que permitirá a estas criaturas adquirir el sentido del tacto. Y eso no es todo. Se podrá bailar con ellos. El Dance Partner Robot es la compañera de baile ideal. Predice los movimientos de su coequipper y no le pisa los pies!

Para momentos de ocio, el turismo estará preparado para el disfrute. Pero, ¿se podría pensar en la pérdida de vigencia del agente de viajes tradicional? “Internet agiliza muchos aspectos de la gestión. Hay un antes y un después en la forma de hacer turismo, pero, ¿quién se atreve a viajar con su familia a destinos exóticos o países desconocidos sin un asesoramiento de confianza?”, se pregunta Ricardo Sánchez Sañudo, director de la revista Tiempo de Aventura, quien sostiene que ante la coyuntura mundial —terrorismo, inseguridad y desastres climáticos, entre otros—, la Argentina crecerá como destino. “Cuanto, más expuesto a estas amenazas esté el resto del mundo, tendremos ventajas comparativas que podremos aprovechar al máximo si conseguimos mantener esas amenazas fuera de nuestras fronteras, o al menos, razonablemente controladas”, manifiesta. Por otra parte, la vida al aire libre será la estrella. “Vida sana, naturaleza viva y desarrollo sustentable son principios insoslayables cuando se mira hacia adelante, y tanto deporte como turismo aventura son dos de sus mejores herramientas”, analiza.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaLos amantes del deporte encontrarán aliados perfectos para seguir ganando. El de los tenistas es la raqueta Magnetic Speed de Fischer, que permite mejores movimientos y mayor velocidad en los tiros. Los que prefieren la música se sorprenderán con instrumentos como el Hand Roll Piano de Yama-no Music, con teclado de silicona flexible.

Trasladarnos será más simple, cómodo y ecológico. Y ya hay algunos adelantos. Tweel de Michelin es una llanta sin aire. Así es que… la despedirse de las gomas pinchadas!

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Por otro lado, acaso debido al tránsito en las ciudades, los transportes individuales serán protagonistas. Como la bicicleta Shift, ideal para los chicos. Les permite adquirir estabilidad gradual sin necesidad de las dos rueditas.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Futuro saludable:

Que la salud avanza a pasos agigantados, no es una novedad. La noticia es que estará al alcance de todos en los próximos años.

Las cirugías estéticas, se popularizarán y masificarán. La lipoescultura será la más pedida, según el doctor Raúl Banegas, cirujano plástico, miembro titular de la Sociedad de Cirugía Plástica de Buenos Aires, debido a que “La demanda social de ser cada vez más lindos, delgados y jóvenes, se acrecienta”. Por otro lado, serán comunes las inyecciones de líquidos —fosfatidil colina— tendientes a disolver la grasa corporal, sin cirugía. En cuanto a rellenos, la toxina botulínica es irremplazable aunque sí se espera que se sintetice de manera tal que dure más tiempo —hoy, de 3 a 6 meses—.

“En cuanto a rellenos definitivos habrá infinidad de sintéticos. Lo que sí parece ser prometedor, aún en fase de investigación, es el cultivo del propio colágeno. En sólo unos meses se podrían obtener en laboratorio, varias jeringas, lo que descartaría toda posibilidad de reacción”, adelanta.

En Neurociencias, será posible el neuromarketing a partir de tomografías PET —por emisión de positrones—, aunque “en lo inmediato son técnicas caras y requieren de un sofisticado análisis de los datos”, anticipa el doctor Facundo Manes, director del Instituto de Neurología Cognitiva —INECO—. En lo que a neuroplastieidad se refiere, ya no diremos más aquello de que “neurona que se muere, se pierde”, viejo postulado que paralizó casi completamente durante décadas la investigación en esta área, según el especialista. Y el conocer acerca de qué pasa en la cabeza de un adicto u obeso permitirá complementar con medicamentos aquello que químicamente requiera cada cerebro.

“Conocer las bases cerebrales de un trastorno neuropsiquiátrico ayuda a localizar los neurotransmisores —mensajeros entre las neuronas— involucrados en una enfermedad; de esta manera se podría investigar una posible solución farmacológica a esa determinada condición médica”, comenta. En el campo de la reproducción asistida, las novedades son infinitas. “Cada vez se podrán hacer más y mejores cosas en pos de mejorar las chances de tener un chico en brazos y no un embarazo que no pudo ser”, adelanta la doctora Ester Polak de Fried, presidente de CER Instituto Médico, directora del departamento de medicina reproductiva de la institución.

“Los estudios genéticos, tanto de gametas como de óvulos fertilizados —preembriones—, que permiten transferir al útero materno únicamente los sanos, se convertirán en técnicas habituales para aquellas mujeres que sufren abortos a repetición, por ejemplo. En el área de la biología molecular, será posible encontrar marcadores génicos —detectan chances de reproducción—, tanto en los óvulos como en los espermatozoides para poder elegir los que tienen capacidades evolutivas, y así disminuir la cantidad de óvulos a poner a fertilizar y la problemática de tener gran cantidad de embriones criopreservados”, especifica quien es officer de la International Federation of Fertility Societies —IFFS—, que nuclea a 54 países.

Construcciòn, arte y moda

Uno de los cambios en lo que respecta a la construcción, al menos en Argentina, será la creciente conciencia ecológica y de cuidado del medio ambiente. “El futuro de La arquitectura está definido en su responsabilidad ecológica tanto con eL medio ambiente como con el medio social. No hay que explicar de qué manera el proyecto arquitectónico influye en el medio ambiente. La decisión de su tecnología y su consecuencia en el futuro mantenimiento conforman una huella ecológica que deberá ser cada vez más analizada y respetada”, analiza el arquitecto Flavio Janches. En cuanto a los materiales, “al menos en nuestro país, el ladrillo y la piedra, el hormigón y el revoque son materiales que no creo que se dejen de utilizar”, opina. La moda tendrá sus cambios, aunque más bien tendrán que ver con el cosechar la siembra, al menos para los diseñadores argentinos. “La gente va a reivindicar el diseño y pagarlo por lo que vale. Hoy por hoy, no existe esa conciencia, como en Estados Unidos, Europa o Japón”, asegura la diseñadora Jessica Trosman. En cuanto al arte, en el futuro abandonará un poco los museos y las galerías para darse una vuelta por las calles. Uno de los referentes de este movimiento es Julian Beever, artista inglés conocido por su trabajo en 3D, en veredas y pavimentos de Inglaterra, Francia, Alemania, Australia, Estados Unidos y Bélgica.

Y mientras se espera el futuro que se viene, a brindar por este 2006 que sí es inminente!

Fuente Consultada: Revista NUEVA Por Laura Zavoyovski (31-12-2005)
Ir a su sitio web

Teoría Especial de la Relatividad Explicacion Sencilla Albert Einstein

Teoría Especial de la Relatividad
Explicación Sencilla

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

 

Pilas y Baterias Acumuladores de energía electrica Funcionamiento

Alessandro Giuseppe Antonio Anastasio Volta, físico italiano, hijo de una madre procedente de la nobleza y de un padre de la alta burguesía, recibió una educación básica y media de características humanista, pero al llegar a la enseñanza superior optó por una formación científica. En el año 1774, es nombrado profesor de física de la Escuela Real de Como. Justamente, un año después Volta realiza su primer invento de un aparato relacionado con la electricidad.

Con dos discos metálicos, separados por un conductor húmedo, pero unidos con un circuito exterior logra, por primera vez, producir corriente eléctrica continua, se inventa el electróforo perpetuo, un dispositivo que una vez que se encuentra cargado puede transferir electricidad a otros objetos.

Entre los años 1776 y 1778 se dedica a la química y descubre y aísla el gas de metano. Un año más tarde, en 1779, es nombrado profesor titular de la cátedra de física experimental en la Universidad de Pavia. Voltio, la unidad de potencia eléctrica, se denomina así en honor a este portentoso –en el buen sentido- de las ciencias. Sus trabajos fueron publicados en cinco volúmenes en el año 1816, en Florencia. Sus últimos años de vida los pasó en su hacienda en Camnago cerca de Como, donde fallece el 5 de marzo de 1827.

El fundamento de las pilas y acumuladores es la transformación de la energía química en eléctrica, mediante reacciones de oxidación-reducción producidas en los electrodos, que generan una corriente de electrones.

Cuando se unen mediante un hilo metálico dos cuerpos entre los cuales existe una diferencia de potencial, se produce un paso de corriente que provoca la disminución gradual de dicha diferencia. Al final, cuando el potencial se iguala, el paso de corriente eléctrica cesa. Para que la corriente siga circulando debe mantenerse constante la diferencia de potencial.

En 1800, Alejandro Volta inventó un aparato generador de corriente. La pila de Volta (que él llamó «aparato electromotor de columna»> estaba constituida por un conjunto de pares de discos, unos de cobre y otros de cinc, con un disco de tela impregnada en agua salada —o en cualquier otro líquido conductor— intercalado entre dos pares sucesivos. Se trataba de un dispositivo muy cómodo y manejable, que funcionaba de modo continuo, y que posibilitó la aparición de nuevos descubrimientos sobre electricidad.

esquema pila de volta

Funcionamiento de una pila electroquímica

El funcionamiento de una pila es sencillo, consiste básicamente en introducir electrones en uno de los extremos de un alambre y extraerlos por el otro. La circulación de los electrones a lo largo del alambre constituye la corriente eléctrica. Para que se produzca, hay que conectar cada extremo del alambre a una placa o varilla metálica sumergida en un electrolito que suele ser una solución química de algún compuesto iónico.

Cuando ese compuesto se disuelve, las moléculas se dividen en iones positivos y negativos, que se mantienen separados entre sí por efecto de las moléculas del líquido. El electrolito que utilizó Volta era ácido sulfúrico; cada una de sus moléculas, al disolverse en agua, se descompone en dos protones H+ (iones positivos) y un ion sulfatoSO4– (ion negativo).

Las varillas metálicas de cobre y cinc constituyen los electrodos, que deben ser sumergidos en el electrolito sin que lleguen a entrar en contacto. La placa de cobre es el electrodo positivo o ánodo y la placa de cinc el electrodo negativo o cátodo.

Al reaccionar el electrolito con las varillas se produce una transmisión de electrones, que han sido extraídos de la placa de cinc, hacia la placa de cobre, con lo que los átomos de cinc son oxidados e incorporados a la disolución, según la reacción:

Zn —> Zn2++ 2e

Esto ocurre así y no al revés, del cobre al cinc, porque los átomos de cinc tienen más tendencia que los de cobre a ceder electrones.

En la varilla de cobre se produce una reducción de los iones hidrógeno H+ de la disolución, ya que los electrones liberados por los átomos de cinc recorren el hilo conductor hacia la placa de cobre y son captados por los H+, que se convierten en átomos de hidrógeno y escapan en forma de gas. Estos electrones en movimiento son los que originan la corriente eléctrica.

Por su parte, los iones SO4 reaccionan con los cationes Zn2+ y se convierten en moléculas de sulfato de cinc.

2 H~+2e —> H2

Zn2+ + SO42– —> ZnSO4

Cuando se corta la conexión exterior entre las placas, los electrones no pueden desplazarse a lo largo del hilo de una placa a la otra, con lo que se interrumpe la reacción.

El dispositivo funciona mientras existan átomos de cinc para formar el sulfato correspondiente. Cuando la placa de cinc se ha desintegrado por completo ya no puede producirse la reacción, por lo que la pila ya no tiene uso. Por este motivo, las pilas de este tipo reciben el nombre de pilas primarias.

Baterías

Las pilas secundarias o acumuladores son aquellas que pueden recargarse, es decir pueden reiniciar el proceso mediante el aporte de energía de una fuente exterior normal mente un generador, que hace que los compuestos químicos se transformen en los compuestos de partida, al hacer pasar corriente a través de ellos en sentido opuesto

Un acumulador es, por tanto, un aparato capaz de retener cierta cantidad de energía en su interior, suministrada externamente, para emplearla cuando la necesite.

Así, una batería está formada por varios acumuladores, y puede ser ácida o calina en función’de la naturaleza del electrolito. Por ejemplo, las baterías de los coches son ácidas, porque contienen un electrolito de ácido sulfúrico en el que se sumergen una placa de plomo metálico y otra de dióxido de plomo. Las reacciones en este caso son las siguientes:

H2SO4 —> 2H+ + SQ42-

Cátodo:……………   Pb + S042 —->  PbSO4 + 2e

Ánodo: …….. PbO2 + S042- +4 H30+ +  2 e- —>  PbSO4 + 6 H20

Cuando se agota el plomo o el dióxido de plomo la batería está gastada y para recargarla se hace pasar una corriente eléctrica de la placa positiva a la negativa mediante un alternador o dinamo, de manera que el sulfato de plomo se vuelve a des componer en plomo en la placa negativa, y en la positiva en dióxido de plomo

En las baterías alcalinas el electrolito suele ser hidróxido potásico, y las placas son habitualmente, de níquel y de hierro.

Pilas de combustible

Para solucionar el problema del agotamiento definitivo de las baterías y acumuladores, Francis Bacon inventó en 1959 la llamada pila de combustible, en la que las sustancias que generan la corriente eléctrica no están contenidas en la propia pila, sino que se van aportando a medida que se necesitan.

La primera pila de combustible, también llamada pila Bacon, era alimentada por hidrógeno y oxígeno gaseosos. Contiene un electrolito de hidróxido potásico disuelto en agua, entre dos placas metálicas porosas que no permiten el paso del electrolito a través de ellas, pero sí su penetración parcial.

Uno de los electrodos es alimentado con el gas hidrógeno y el otro con el oxígeno, a presiones determinadas para que sólo pueda penetrar una parte de la placa. Es a través de los poros de los metales de las placas por donde entran en contacto los gases con el electrolito. En la placa negativa se produce una combinación de las moléculas de hidrógeno con los iones hidroxilo del electrolito, suministrando electrones. En la placa positiva los átomos de oxígeno capturan los electrones y se combinan con moléculas de agua para formar iones hidroxilo, que se disuelven en el electrolito.

Las reacciones continúan y la corriente eléctrica se mantiene mientras los electrodos estén conectados exteriormente y se produzca el aporte de oxígeno e hidrógeno. A veces es necesario utilizar un metal que actúe como catalizador de la reacción. El idóneo es el platino, pero debido a su elevado coste suele emplearse níquel.

Este tipo de pilas son ideales para el suministro de energía en estaciones espaciales o submarinas, por ejemplo, donde no es fácil el montaje de equipos generadores de tipo convencional. Sin embargo, no son válidas para sustituir a la batería de los automóviles, ya que se necesita un equipo auxiliar que caliente la pila y elimine el exceso de agua —en el caso de la pila Bacon— o de dióxido de carbono —en otros tipos similares que emplean carbonatos como electrolitos.

ALGO MAS..

LA CORRIENTE ELÉCTRICA NO ES ALMACENABLE
La electricidad usual nos llega por cables desde la central eléctrica. Pero la corriente no puede almacenarse en “tanques” del mismo modo que el agua, pues no es más que el movimiento de los electrones bajo la influencia de una “presión” o diferencia de tensión, o “voltaje”, o “fuerza electromotriz”. Por eso, cuando necesitamos accionar pequeños aparatos, como linternas o radiorreceptores no conectados con la central eléctrica, empleamos pilas secas y acumuladores. En éstos la electricidad se produce químicamente.

LA PILA DE VOLTA
Si colocamos dos placas de metales diferentes en un recipiente con agua acidulada (puede ser una placa metálica y otra de carbono), el ácido ataca al metal y se produce una serie de complicadas reacciones químicas. El ácido toma átomos de una de las placas metálicas y en cambio libera ios átomos de hidrógeno que ¡o constituían., pero los electrones del hidrógeno quedan en la placa, que por eso se sobrecarga negativamente.

Los átomos de hidrógeno sin electrón (iones hidrógeno) recuperan sus electrones a costa de la segunda placa, que entonces queda cargada positivamente. En conjunto sucede como si los electrones de la segunda placa pasaran a !a primera. Si están unidas a un circuito exterior, circulará una corriente eléctrica de la primera a la segunda.

Hay un inconveniente en este fenómeno. Los átomos de hidrógeno (ya completos) se adhieren a la segunda placa formando una capa aislante y en cuestión de segundos impiden el acercamiento de nuevos iones, deteniéndose completamente la reacción. Para evitarlo, en la práctica se agrega una sustancia química que se combina fácilmente con el hidrógeno y lo elimina dé la placa. También se suele reemplazar el ácido sulfúrico por cloruro de amonio, sustancia de manipulación mucho menos peligrosa.

Existen otras pilas húmedas: la de Weston, de cadmio y mercurio, muy constante y estable a temperatura fija: suele ser de vidrio y se la emplea para comparar voltajes. La pila de Lalande no usa ácido, sino sosa cáustica, zinc y óxido de cobre.   Trabaja bien en frío.   Su densidad es baja.

LA PILA SECA
La pila seca consiste en un receptáculo de zinc (“placa” negativa de la pila) en cuyo interior hay una varilla de carbón rodeada de una mezcla de polvo de carbón, bióxido de manganeso (MnOa), cloruro de amonio y cloruro de zinc en agua. La reacción química entre el cloruro de amonio (CINHJ y el zinc deja a éste con un exceso de electrones mientras la varilla de carbón, que actúa como segunda “placa”, queda con escasez de electrones, es decir, cargada positivamente.

El bióxido de manganeso actúa como despolarizador: elimina el hidrógeno adherido al carbón. La diferencia entre la pila seca y la húmeda consiste en que en la primera el electrólito, absorbido por un medio poroso, no fluye, no se escurre. El uso ha reservado este nombre a las pilas Leclanché, pero existen otras. La varilla de carbón no suele ser de grafito, sino de negro de humo proveniente de la combustión de acetileno. La pasta gelatinosa que contiene el electrólito puede ser de almidón y harina, o una bobina de papel: las pilas modernas usan metilcelulosa  con  mejores resultados.    El  voltaje  obtenido es 1,6; por cada amperio se consume  1,2 gramos de zinc.

ACUMULADORES
La pila voltaica y la pila seca se llaman primarias o irreversibles porque las reacciones químicas no pueden invertirse, ni volver a emplearse los materiales gastados. Una pila secundaria o reversible (por ejemplo, una batería de automóvil) puede cargarse nuevamente y emplearse otra vez haciendo pasar en sentido opuesto una corriente continua. Así se invierten las reacciones químicas que tuvieron lugar durante la generación de electricidad y los materiales vuelven a su estado original.

El acumulador de plomo es un ejemplo de pila secundaria. En lugar de placas se compone de rejillas para aumentar la superficie de contacto con la solución de ácido sulfúrico en agua destilada. Los huecos de una placa están llenas de plomo esponjoso y ios de la otra de bióxido de plomo (PbCW. La placa de plomo metálico (negativa) corresponde al  zinc y  la  de  bióxido de plomo equivale  ai carbón de la pila seca (positiva).

Ambas placas reaccionan con el ácido sulfúrico y se forma sulfato de plomo. El acumulador se agota cuando ambas placas quedan recubiertas con un depósito blanco de sulfato de plomo y paralelamente disminuye la concentración del ácido sulfúrico.

La corriente eléctrica de recarga regenera en una placa el plomo esponjoso, en la otra el bióxido de plomo, y restituye el ácido sulfúrico al agua. La “batería” completa consta de varios acumuladores conectados  entre  sí  para  aumentar  la  tensión  eléctrica   o voltaje del conjunto.

Los acumuladores convienen para descargas breves de alto nivel (estaciones telefónicas, locomotoras, automóviles). Los nuevos plásticos les confieren menor peso. En autos y aviones las placas delgadas permiten reducir peso y espacio y proporcionar mejor rendimiento a bajas temperaturas. Pero las placas gruesas son sinónimo de larga vida, más o menos 1.000.000 de ciclos cortos.

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

El Pararrayos de Benjamin Franklin Experiencia Barrilete Invento de

Benjamín Franklin, científico: (Boston, 17 de enero de 1706 – Filadelfia, 17 de abril de 1790) Filósofo, político, físico, economista, escritor y educador, figura clave en la Independencia de los Estados Unidos de Norteamérica, creó las bases de lo que hoy se entiende como «el ciudadano americano ejemplar».Era el decimoquinto de los hijos y comenzó a aprender el oficio de su padre, que era un pequeño fabricante de velas y jabón.

Cansado de este trabajo, se colocó a los 12 años en la imprenta de un familiar, desarrollándose así su amor a la cultura. El escaso tiempo libre lo empleaba en devorar todo tipo de libros que caían en sus manos.

Sus primeros versos y artículos los publicó en un periódico que su cuñado había fundado. A los 17 años, debido a discusiones con él, se traslada a Nueva York para hacer fortuna. Respaldado por el gobernador de Filadelfia, instala una imprenta y decide ir a Londres a comprar el material. Allí, olvidándose un poco de sus propósitos principales, trabaja en la imprenta Pelmer, conociendo a distinguidas personalidades.

PARARRAYOSEn cambio, el exceso atraía a la deficiencia, y el fluido eléctrico se vertía del exceso a la deficiencia, neutralizándose ambos y quedando descargados.

Franklin propuso que el exceso se llamara electricidad positiva, y la deficiencia, electricidad negativa. No se especificaba qué variedad de electricidad, la vítrea o la resinosa, era positiva y cuál negativa.

Franklin conjeturó arbitrariamente y se equivocó, pero eso es irrelevante. Pueden utilizarse los nombres y olvidarse los significados literales.

Franklin observó cómo se descargaba la botella de Leyden. Cuando la carga eléctrica se agotaba, emitía una chispa (luz) y un chasquido (sonido).

A Franklin le sorprendió la semejanza entre la chispa —un rayo en pequeño— y el chasquido —un pequeño trueno—. Entonces invirtió el razonamiento: durante una tormenta, ¿acaso tierra y cielo formaban una gigantesca botella de Leyden, y el rayo y el trueno significaban una descarga igualmente gigantesca?

Decidió experimentar. En 1751, hizo volar una cometa durante una tormenta. La cometa iba provista de una punta metálica a la que estaba unido un largo hilo de seda. Al final del hilo, cerca de donde se encontraba Franklin (que sujetaba el hilo de seda con un segundo hilo que permanecía seco), había una llave de metal.

Cuando se concentraron las nubes de tormenta y el hilo empezó a dar muestras de carga eléctrica (las fibras separadas se repelían unas a otras), Franklin puso el nudillo cerca de la llave, y ésta chisporroteó y crujió igual que una botella de Leyden. Además, Franklin cargó una de esas botellas sirviéndose de la llave, con la misma facilidad que si fuera una máquina de fricción.

La botella de Leyden cargada con electricidad del cielo se comportaba exactamente igual que si se hubiera empleado electricidad terrestre. O sea que ambas eran idénticas.

Franklin fue capaz de dar una inmediata aplicación práctica a su descubrimiento. Decidió que el rayo se abatía sobre un determinado edificio cuando éste almacenaba una carga durante una tormenta. Su experiencia con la botellas de Leyden le demostraba que éstas se descargaban con mucha mayor facilidad si se las proveía de una aguja.

Es decir, que la carga se disipaba con tanta rapidez a través de la aguja, que las botellas no podían ser cargadas a la primera. ¿Por qué no, entonces, fijar una varilla metálica puntiaguda en lo alto de un edificio y conectarla adecuadamente con el suelo, a fin de que cualquier carga que almacenara pudiera descargarse rápida y silenciosamente, y que ninguna carga se acumulara hasta el punto de desencadenar una descarga de consecuencias desastrosas?

Franklin publicó sus ideas sobre la materia en 1752 en Poor Richard’s Almanac, y en seguida empezaron a instalarse los pararrayos (líghtning rods, «varillas para el rayo»), primero en América y luego en Europa. Demostraron su eficacia, y por vez primera en la historia una catástrofe natural no se prevenía mediante la plegaria o los encantamientos mágicos de una u otra clase, que realmente nunca daban resultado, sino por la confianza en la comprensión de las leyes naturales, que sí era eficaz.

En cuanto los pararrayos aparecieron en los campanarios de las iglesias (que al ser el punto más elevado de la ciudad eran particularmente vulnerables), la cuestión quedó clara para todos.

PARA SABER MAS…

Aunque se lo recuerda sobre todo como hombre de estado, Benjamín Franklin realizó también valiosas contribuciones al conocimiento científico. Nació en 1706 y era el número quince de los hijos de una modesta familia de Boston. Fue, principalmente, autodidacto, pero asistió durante algún tiempo a la escuela local.

A la edad de 12 años era aprendiz de impresor. Cinco después dejó su ciudad natal para dirigirse a Filadelfia, donde continuó dedicado a ese trabajo. En 1729 se estableció y abrió con buen éxito su propia impresora, y compró la Pennsylvania Gazette. Poco después, inició su carrera política como secretario de la asamblea general de Pen-silvania. En 1751 fue elegido miembro de ésta Corporación y de 1753 a 1774 lo nombraron administrador general de correos de las  colonias norteamericanas.

Visitó Inglaterra en diversas ocasiones, a fin de negociar con el gobierno británico asuntos de interés para los colonos. Fue durante estos viajes cuando realizó una serie de experiencias que demostraron las características y el curso de la corriente del golfo de México, una corriente de agua templada que se dirige desde el golfo, por la costa este de Norteamérica, hacia el Norte, y en las costas de Newfoundland cambia de rumbo, hacia el Este y atraviesa el Atlántico.

Para levantar la carta de esta corriente, determinó la temperatura del agua del océano a diversas profundidades. Las naturalezas del trueno y del rayo habían interesado durante siglos a los científicos y a los filósofos, pero a Franklin 10 llevó este interés a investigarlas experimentalmente.

Para ello, preparó un barrilete, que fijó con un clavo al extremo de un cordel. Cerca del otro extremo lo prendió con una llave. Lanzó el barrilete cuando pasó sobre su cabeza un nubarrón-tormentoso y, en seguida, saltó de la llave una gran chispa eléctrica. Pudo ser algo muy peligroso, puesto que no había preparado ningún aislador en esta parte del cordel del barrilete.

Como la lluvia empapaba el cordel, ello incrementaba su conductividad eléctrica; la electricidad fluía libremente por dicha cuerda y pudo comprobar que poseía las mismas propiedades que la electricidad generada por fricción. El feliz resultado de esta experiencia condujo a la utilización de los pararrayos para proteger los edificios, especialmente los de más altura.

Realizó, además, otra contribución al estudio de la electricidad: demostró la existencia de cargas positivas y negativas. Aunque no está claro quién fue el inventor de las lentes bifocales, fue él ciertamente el primero que las describió. Antes, si una persona necesitaba dos clases de lentes para leer y para ver objetos lejanos, era forzoso que dispusiese de dos anteojos distintos. Sin embargo, esta dificultad fue superada al unir en un mismo cristal dos medias lentes diferentes.

La inferior proporcionaba los aumentos adecuados para la lectura y la superior, de menor aumento, se podía utilizar para enfocar objetos distantes. Franklin estaba demasiado entregado a las actividades políticas para poder prestar a las científicas las atenciones deseables. Ayudó a redactar la Declaración de la Independencia de los Estados Unidos y, poco después, en 1790, murió cuando abogaba por la abolición de la esclavitud de los negros.

Historia del Número Pi Determinacion de su valor a través del tiempo

Historia del Número Pi Determinación de su valor a través del tiempo

Cualquier esfuerzo práctico por dividir el diámetro de un círculo en su propia circunferencia solo puede resultar en fracaso.

Tal procedimiento sólo puede ser teórico en su naturaleza, e intentar obtener su valor “racional” solo conllevará a frustración. La frustración que se retrata a lo largo de la historia en el esfuerzo de la humanidad por medir lo inconmensurable.

Intentar inscribir una línea recta (el diámetro de un círculo) en otra línea curva (el perímetro del mismo) es intentar una alteración a la naturaleza, una alteración imposible que siquiera los ordenadores modernos están en condiciones de realizar.

Ya en la antigüedad, los calculistas advirtieron que todos los círculos conservaban una estrecha relación entre su perímetro y su radio pero… ¿Puede este vínculo ser considerado como un número “racional”? Es decir: ¿Puede conocerse con exactitud esta relación, o debemos limitarnos a dar aproximaciones?.

Sólo desde el siglo XVII la relación se convirtió en un número y fue identificado con el nombre “Pi” (de periphereia, nombre que los griegos daban al perímetro de un círculo), pero largo fue el camino hasta aceptar que Pi era un irracional, como infinita es la posibilidad de encontrarle un nuevo decimal.

A lo largo de la historia, la expresión de Pi ha asumido muchas variaciones. Uno de los mas antiguos textos matemáticos, el papiro de Rhind, (1700 años antes de nuestra era) nos muestra al escriba Ahmés cotejando la evaluación del área de un círculo inscrito en un cuadrado.

La biblia le asigna el valor 3, en Babilonia 3 1/8; los egipcios 4(8/9)²; Siddhantas 3,1416; Brahmagupta 3,162277; y en China 3,1724. Sin embargo, como era de esperarse, fue en Grecia donde la exacta relación entre el diámetro y el perímetro de una circunferencia comenzó a consolidarse como uno de los mas llamativos enigmas a resolver. Un contemporáneo de Sócrates, Antiphon, inscribe en el círculo un cuadrado, luego un octógono e imagina doblar el número de lados hasta el momento en que el polígono obtenido coincida prácticamente con el círculo. Brisón, por la misma época, hizo intervenir los polígonos circunscriptos.

Después de los trabajaos de Hipócrates y de Euxodo, Euclides precisa, en sus Elementos los pasos al límite necesarios y desarrolla el método de exhaución, consistente en doblar, al igual que Antiphon, el número de lados de los polígonos regulares inscritos y circunscritos y en mostrar la convergencia del procedimiento.

Arquímedes reúne y desarrolla estos resultados. Muestra que el área de un círculo es el semiproducto de su radio por su circunferencia y que la relación de la circunferencia al diámetro está comprendida entre 223/71 = 3,14084 y 22/7 = 3,14285.

Obtiene luego para las áreas y los perímetros de los polígonos regulares, inscritos y circunscritos, de n y 2n lados, relaciones de recurrencia de forma notable, que permiten calcular pi con una aproximación dada; este método de cálculo recibió el nombre de “algoritmo de Arquímedes”.

Con el renacimiento, los trabajos de ciclometría se multiplican. Purbach construye una tabla de senos de 10′ en 10′ y adopta para Pi el valor 377/120 = 3,14666…. Los siglos XV y XVI se destacan por el desarrollo de la trigonometría, bajo el impulso de Copérnico y Kepler. Rhaeticus construye una tabla de senos en la que se incluye a Pi con 8 decimales exactos. Adrien Romain (1561-1615) obtiene 15 decimales y Ludolph de Colonia (1539-1610) llega hasta 32. Según su deseo, estos 32 decimales fueron grabados en su tumba, pero en su país la posteridad lo recompensó mucho mejor pues se dio a pi el nombre de “número de Ludolph”.

Pronto la proeza de Ludolph se vió opacada por lo perfeccionamientos logrados por Snell (1580-1626) y Huyghens (1629-1655). El primero halla que el arco x está comprendido entre: 3 sen x /( 2 + cos x) y 1/3.(2 sen x + tg x) mientras que el segundo, cuya obra ha sido calificada como modelo de razonamiento geométrico, da la expresión (sen² x tg x)1/3 Con su método, Snell obtuvo 34 decimales exactos, partiendo del cuadrado y doblando 28 veces el número de los lados. Huyghens, en cambio, calcula Pi con 9 decimales exactos utilizando simplemente el polígono de seis lados.

El cálculo infinitesimal dió fórmulas notables que, al aportar métodos de cálculo nuevos y mucho mas potentes, separó en cierto modo a Pi de sus origenes geométricos y aclaró el papel fundamental que que juega en todo el análisis matemático. El matemático francés Viete obtuvo, a fines del siglo XVI, la primer fórmula de Pi por medio de un producto infinito convergente que no hace figurar mas que a los número 1 y 2. Gregory en 1670 desarrolla la fórmula del Arco tangente que, para x = 1 da la fórmula de Leibniz: PI/4 = 1 – (1/3) + (1/5) -…

Como caso particular, cabe mencional a Euler, a quien le debemos la costumbre de designar por Pi a la relación circunferencia : diámetro y quien en 1775 calculó su valor, con 20 decimales, en una hora por medio de la fórmula:

Pi/4 = 5 arc tg 1/7 + 8 arc tg 3/79. Sin embargo, su mayor descubrimiento es el de un cierto parentesco entre Pi y otros números no menos importantes en la matemática, como lo son el número e, i, como así los lazos que existen entre las funciones circulares seno y coseno, y la función exponencial ex: ésta es periódica y su período imaginario es 2 i Pi.

Estas verdades son el resultado común de varias corrientes de ideas. Los logaritmos inventados por el escocés Neper (1550-1617), no solamente tuvieron gran importancia para los cálculos numéricos; la función, nula para x = 1, que admite como derivada a 1/x ofrece un sistema de logaritmos particularmente interesantes desde el punto de vista teórico: los conocidos logaritmos neperianos.

 El mas constante entre todos aquellos que se abocaron al cómputo de Pi fue el matemático inglés William Shanks, quien luego de un arduo trabajo que le demandó nada menos que veinte años, obtuvo 707 decimales en 1853. Desafortunadamente, Shanks cometió un error en el 528º decimal, y apartir de ése todos los restantes están mal. En 1949 John Von Neumann utilizó la computadora electrónica ENIAC, y luego de setenta horas de trabajo obtuvo 2037 cifras decimales. Tiempo después, otra computadora consiguió 3.000 decimales en sólo 13 minutos. Hacia 1959, una computadora británica y otra gala lograron las primeras 10.000 cifras. En 1986 David H. Bailey extrajo 29.360.000 cifras en un Cray-2 de la Nasa utilizando el algoritmo de Ramanujan de convergencia cuártica. Finalmente, en 1987, Kanada consiguió mas de 100 millones de cifras se podrían conseguir facilmente 2.000 millones de cifras usando en exclusiva un superordenador durante una semana. En resumen, ya es prácticamente posible tantas cifras como se requiera, y el único impedimento aparente es debido al tiempo que un ordenador pueda tardar en conseguirlos.

Lo cierto es que sólo cuatro decimales de Pi con suficiente precisión bastan para las necesidades prácticas. Con 16 decimales se obtiene, con el espesor aproximado de un cabello, la longitud de una circunferencia que tenga por radio la distancia media de la tierra al sol. Si reemplazamos el sol por la nebulosa mas lejana y el cabello por el corpúsculo mas pequeño conocido por los físicos, no harian falta mas que 40 decimales. Entonces ¿Que necesidad existe para buscar tantas cifras? Quizá ninguna necesidad práctica, pero el hombre no se resigna aún a aceptar cosas que no pueda llegar a comprender, como por ejemplo el infinito.

Evolución de Pi a través del tiempo

 Persona/pueblo         Año Valor

Biblia ~ 550 AC 3

Egipto ~ 2000 AC 3.1605

China ~1200 A.C. 3

Arquimedes ~300 AC 3.14163

Ptolomeo ~200 AC. 377/120 = 3.14166…

Chung Huing ~300 AC. raiz cuad.(10)

Wang Fau 263 A.C. 157/50 = 3.14

Tsu Chung-Chi ~500 A.C. 3.1415926<Pi<3.1415929

Aryabhata ~500 3.1416

Brahmagupta ~600 raiz cuad.(10)

Fibonacci 1220 3.141818

Ludolph van Ceulen 1596 35 decimales 

Machin 1706 100 decimales 

Lambert 1766 Nombró a Pi irracional

Richter 1855 500 decimales 

Lindeman 1882 Nombró a Pi trascendente

Ferguson 1947 808 decimales 

Ordenador Pegasus 1597 7.840 decimales 

IBM 7090 1961 100.000 decimales 

CDC 6600 1967 500.000 decimales 

Cray-2 (Kanada) 1987 100.000.000 decimales 

Univ. de Tokio 1995 4.294.960.000 decimales

  Volver Arriba 

Teoria Herencia Genética Leyes de Mendel Fenotipo Genotipo Historia

Leyes de Mendel- Teoría Herencia Genética 

Gregor Mendel, considerado el padre de la genética, fue un monje austriaco cuyos experimentos sobre la transmisión de los caracteres hereditarios se han convertido en el fundamento de la actual teoría de la herencia. Las leyes de Mendel explican los rasgos de los descendientes, a partir del conocimiento de las características de sus progenitores.

Teoria Herencia Genética

 Suele pasar en muchas oportunidades que un acontecimiento, en el momento en que se produce, no es considerado relevante y sólo logra serlo con el paso del tiempo. Éste es el caso del monje Gregor Mendel, un adelantado que descubrió de qué forma se heredan los caracteres. Realizadas a mediados del 1800, sus investigaciones a partir de la hibridación de plantas de arveja mediante la polinización artificial recién fueron valoradas a comienzos del siglo XX. Hoy, las leyes de Mendel son el fundamento de la genética moderna.

Gregor Mendel nació el 22 de julio de 1822 en Heizendorf (hoy Hyncice, República Checa), en el seno de una familia campesina. Dificultades familiares y económicas le obligaron a retrasar sus estudios. Fue un hombre de contextura enfermiza y carácter humilde y retraído.

El entorno sociocultural influyó en su personalidad científica, principalmente el contacto directo con la naturaleza, las enseñanzas de su padre sobre los cultivos de frutales y la relación con. diferentes profesores a lo largo de su vida, en especial el profesor J. Scheider, experto en pomología.

El 9 de octubre de 1843 ingresó como novicio en el convento de Brünn, conocido en la época por su gran reputación como centro de estudios y de trabajos científicos. Después de tres años, al finalizar su formación en teología, fue ordenado sacerdote, el 6 de agosto de 1847. En un principio fue inducido por su superior a dedicarse al campo de la pedagogía, pero él eligió un camino bien distinto.

En 1851 ingresó en la Universidad de Viena, donde estudió historia, botánica, física, química y matemáticas, para graduarse y ejercer como profesor de biología y matemáticas.

Durante su estancia allí llegó a dar numerosas clases como suplente, en las materias de matemáticas, ciencias naturales y ciencias generales, con excelente aprobación entre los estudiantes. Sin embargo, una vez finalizados sus estudios, no logró graduarse, por lo que decidió regresar al monasterio de Abbot en 1854. De naturaleza sosegada y mentalidad matemática, llevó una vida aislada, consagrado a su trabajo.

Más adelante fue nombrado profesor de la Escuela Técnica de Brünn, donde dedicó la mayor parte de su tiempo a investigar la variedad, herencia y evolución de las plantas, especialmente de los guisantes, en un jardín del monasterio destinado a los experimentos. Sus aportaciones al mundo de la ciencia son consideradas hoy como fundamentales para el desarrollo de la genética.

Hacia el final de su vida, en 1868, Mendel fue nombrado abad de su monasterio, donde murió el 6 de enero de 1884 a causa de una afección renal y cardiaca.

Mendel tuvo la fortuna de contar, en su propio monasterio, con el material necesario para sus experimentos. Comenzó sus trabajos estudiando las abejas, coleccionando reinas de todas las razas, con las que llevaba a cabo distintos tipos de cruces. Entre 1856 y 1863 realizó experimentos sobre la hibridación de plantas.

Trabajó con más de 28.000 plantas de distintas variantes del guisante oloroso o chícharo, analizando con detalle siete pares de características de la semilla y la planta: la forma de la semilla, el color de los cotiledones, la forma de la vaina, el color de la vaina inmadura, la posición de las flores, el color de las flores y la longitud del tallo.

Sus exhaustivos experimentos tuvieron como resultado el enunciado de dos principios que más tarde serían conocidos como «leyes de la herencia». Sus observaciones le permitieron acuñar dos términos que siguen empleándose en la genética de nuestros días: dominante y recesivo. Factor e hibrido son, asimismo, dos de los conceptos establecidos por Mendel de absoluta vigencia en la actualidad.

En 1865 Mendel expuso ante la Sociedad de Historia Natural de Brünn una extensa y detallada descripción de los experimentos que había llevado a cabo y de los resultados obtenidos. A pesar de su importancia, y de que su trabajo fue distribuido entre las principales sociedades científicas de su

tiempo, pasó totalmente inadvertido. Al año siguiente, en 1866, publicó su obra fundamental en un pequeño boletín divulgativo de su ciudad, bajo el título Ensayo sobre los híbridos vegetales. En ella expuso la formulación de las leyes que llevan su nombre. Este ensayo contenía una descripción del gran número de cruzamientos experimentales gracias a los cuales habla conseguido expresar numéricamente los resultados obtenidos y someterlos a un análisis estadístico.

A pesar de esta detallada descripción, o quizás por ese mismo motivo, su obra no tuvo respuesta alguna entre la comunidad científica de su época. De hecho, Mendel íntercambió correspondencia con uno de los más eminentes botánicos del momento, Carl Nágeli, aunque éste no pareció muy impresionado por su trabajo. Sugirió a Mendel que estudiara otras plantas, como la vellosina Hieracium, en la cual Nágeli estaba muy interesado.

Mendel siguió su consejo, pero los experimentos con Hieracium no fueron concluyentes, dado que no encontró normas consistentes en la segregación de sus caracteres, y empezó a creer que sus resultados eran de aplicación limitada. Su fe y su entusiasmo disminuyeron, y debido a la presión de otras ocupaciones, en la década de 1870 abandonó sus experimentos sobre la herencia. No fue hasta mucho después de la muerte de Mendel, en 1903, cuando se descubrió que en Hieracium se da un tipo especial de partenogénesis, que produce desviaciones de las proporciones fenotípicas y genotípicas esperadas.

Tuvieron que pasar treinta y cinco años para que la olvidada monografía de Mendel saliera a la luz. En 1900 se produjo el redescubrimiento, de forma prácticamente simultánea, de las leyes de Mendel por parte de tres botánicos: el holandés Hugo de Vries en Alemania, Eric Von Tschermak en Austria y Karl Erich Correns en Inglaterra. Asombrados por el sencillo planteamiento experimental y el análisis cuantitativo de sus datos, repitieron sus experimentos y comprobaron la regularidad matemática de los fenómenos de la herencia, al obtener resultados similares. Al conocer de forma fortuita que Mendel les había precedido en sus estudios, estuvieron de acuerdo en reconocerle como el descubridor de las leyes que llevan su nombre.

El británico William Bateson otorgó un gran impulso a dichas leyes, considerándolas como base de la genética (hoy llamada genética clásica o mendeliana), término que acuñó en 1905 para designar la «ciencia dedicada al estudio de los fenómenos de la herencia y de la variación de los seres».

En 1902, Boyen y Sutton descubrieron, de forma independiente, la existencia de un comportamiento similar entre los principios mendelianos y los cromosomas en la meiosis. En 1909 el danés Wilhelm Johannsen introdujo el término «gen» definiéndolo como «una palabrita.., útil como expresión para los factores únitarios… que se ha demostrado que está en los gametos por los investigadores modernos del mendelismo». Sin embargo, no fue hasta finales de la década de 1920 y comienzos de 1930 cuando se comprendió el verdadero alcance del trabajo de Mendel, en especial en lo que se refiere a la teoría evolutiva.

Mendel desconocía por completo la naturaleza de los «factores hereditarios». Años más tarde, el descubrimiento
de los cromosomas y del mecanismo de la división célula” arrojó luz sobre cómo se produce la herencia
de los caracteres.

Los cruces de arvejas: Para observar la existencia de reglas en la transmisión de las características de una generación a la siguiente, eligió hacer sus famosos cruzamientos a partir de la especie Pisum sativum por diversos motivos: su costo era muy bajo, tenía diferentes variedades dentro de la misma especie y, lo más importante, le permitiría realizar muchos experimentos en poco tiempo, ya que esta planta tiene un período de generación muy corto y un alto índice de descendencia. En total, hizo 287 cruces mediante la polinización artificial entre 70 diferentes variedades puras. En total, utilizó unas 28 mil plantas.

El esquema consistió en cruzar dos variedades puras diferentes en uno o más caracteres para autofecundar luego esta primera generación de vastagos, y así sucesivamente.

De esa forma, notó que al mezclar dos guisantes, un carácter o variación propia de uno de ellos -lo que se conoce como alelo- no aparecía en la siguiente generación. Además, al cruzar a esos híbridos resultantes en la primera generación, es decir, los descendientes, corroboró que el carácter antes citado volvía a aparecer. Así pues, las plantas hijas nuevas mostraban una distribución regular: la cuarta parte heredaba la característica de la variedad pura que había actuado como “abuela”; la otra cuarta parte, la de la planta “abuelo”, y la mitad adquiría la característica común de los “padres”.

La ventaja de Mendel para plantear sus leyes de herencia fue aplicar las matemáticas a la biología. Al expresar mediante relaciones numéricas las reglas de transmisión de las características de una generación a otra, pudo predecir con precisión los resultados de los distintos cruzamientos.

Las leyes de Mendel

Las leyes de Mendel explican y predicen cómo van a ser las características de un nuevo individuo, partiendo de los rasgos presentes en sus padres y abuelos. Los caracteres se heredan de padres a hijos, pero no siempre de forma directa, puesto que pueden ser dominantes o recesivos. Los caracteres dominantes se manifiestan siempre en todas las generaciones, pero los caracteres recesivos pueden permanecer latentes, sin desaparecer, para ‘surgir y manifestarse en generaciones posteriores.

Los principios establecidos por Mendel fueron los siguientes:

— Primera ley de Mendel o ley de la uniformidad. Establece que si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera generación son todos iguales entre sí e iguales (en fenotipo) a uno de los progenitores.

— Segunda ley de Mendel o ley de la segregación. Establece que los caracteres recesivos, al cruzar dos razas puras, quedan ocultos en la primera generación, reaparecen en la segunda en proporción de uno a tres respecto a los caracteres dominantes. Los individuos de la segunda generación que resultan de los híbridos de la primera generación son diferentes fenotipicamente unos de otros; esta variación se explica por la segregación de los alelos responsables de estos caracteres, que en un primer momento se encuentran juntos en el híbrido y que luego se separan entre los distintos gametos.

Tercera ley de Mendel o ley de la independencia de caracteres. Establece que los caracteres son independientes y se combinan al azar. En la transmisión de dos o más caracteres, cada par de alelas que controla un carácter se transmite de manera independiente de cualquier otro par de alelos que controlen otro carácter en la segunda generación, combinándose de todos los modos posibles.

LO ESENCIAL DE SU TEORÍA:

PRINCIPIO DE LA UNIFORMIDAD Cuando se cruzan dos razas puras, los descendientes de la primera generación serán todos iguales entre sí e iguales a uno de los progenitores.

PRINCIPIO DE LA SEGREGACIÓN Dice que los individuos de la segunda generación no son uniformes porque los caracteres de los padres segregan, y se dan estas proporciones: 1/4 de los descendientes manifiesta el carácter de un progenitor; 1/4 el de otro y la mitad restante se compone por híbridos.

PRINCIPIO DE LA COMBINACIÓN INDEPENDIENTE Cuando se cruzan dos individuos que difieren en dos caracteres, los genes se heredan independientemente unos de otros y se combinan de todas las maneras posibles.

Después de Mendel
Los trabajos de Mendel, si bien se publicaron en 1865, fueron completamente olvidados durante 35 años. En 1900, tres investigadores, Correns, De Vries y Tschermack llegaron, de forma independiente, a las mismas conclusiones que Mendel. En un ejemplo de honradez científica, decidieron que el honor del descubrimiento corresponde a su predecesor. De no ser asi, probablemente Mendel hubiera desaparecido de la historia de la Ciencia.

Los genetistas actuales reconocen que Mendel, además de escoger el material biológico más adecuado, supo concentrar su atención en los fenómenos parciales y no en la totalidad de los caracteres (lo que le habría confundido), así con clasificar los caracteres y establecer relaciones entre ellos.

El hecho de que Mendel realizase todos sus descubrimientos sin conocer la existencia del ADN y los cromosomas, ni el proceso de la división celular, ni qué sucede durante la fecundación con el material hereditario, agrega mérito a sus logros.

Los cromosomas y su papel en la herencia
En 1902, Sutton y Bovery observaron la relación entre los cromosomas y la herencia y propusieron que las partículas hereditarias (hoy llamadas genes) se encuentran en los cromosomas, dispuestas una a continuación de otra. Esta fue la primera forma  de la teoría cromosómica de la herencia, demostrada por Morgan en los años veinte pasado siglo.

Treinta años más tarde se descubrió que el material hereditario está formado exclusivamente por ácido desoxirribonucleico o ADN (excepto en algunos virus, en los que es ARN). Este material hereditario se encuentra localizado dentro del núcleo de las células asociado a proteínas, formando la cromatina. Solo en el momento de la división celular, la cromatina se condensa y se empaqueta, permitiendo entonces la observación de los cromosomas.

Se denomina gen a una porción más o menos larga de ADN (de un determinado cromosoma) que contiene la información para sintetizar una determinada proteína responsable de un carácter. En el núcleo de cada una de nuestras células hay aproximadamente 25.000 genes. En una célula díploide, como las que forman el organismo humano, hay dos juegos de cromosomas idénticos: los cromosomas de cada pareja se denominan cromosomas homólogos.

¿ Cómo comprobar las leyes de Mendel ?

1. Consigue agar o gelatina sin sabor, 1 banano, 4 frascos de boca ancha (del mismo tamaño), 1 caja de petri, gasa, 1 gotero, algodón, horno u olla de presión, alcohol, agua, pincel delgado y suave, estereoscopio o lupa.

2. Esteriliza tres frascos lavándolos e introduciéndolos en un horno o en una olla a presión en seco —o en un autoclave— a una temperatura de 350°C durante 40 minutos.

3. Preparación del tapón: se elabora con algodón envuelto en gasa, de tal manera que se ajuste bien a la tapa del frasco; se amarra y se esteriliza con el frasco.

4. Disuelve 3 mi de agar en 40 mi de agua o 1 paquete de gelatina sin sabor en 40 mi de agua. Macera un banano en 40 mi de agua. Agita las preparaciones en un recipiente y caliéntalas hasta hervir.

5. A la mezcla se le agrega un fungicida para eliminar los hongos; suele utilizarse ácido propiónico al 94% en cantidad de 1 mi, o en su defecto, puede remplazarse por 1 mi de ácido acético (vinagre).

Luego la mezcla se coloca en los frascos esterilizados (a una altura aproximada de 2 cm), teniendo la precaución de evitar al máximo la contaminación. Se tapona y se deja enfriar durante 36 horas. El frasco está listo para recibir las moscas.

Para conseguir las moscas, se deja una fruta como banano o naranja en la ventana de cualquier habitación. Allí llegará la Drosophila melanogaster atraída por el olor.

• Enumera las razones por las cuales se prefiere a la mosca de la fruta para las experiencias de genética.

6. Para examinar apropiadamente las moscas que has conseguido, deben estar anestesiadas con éter y ubicadas en el recipiente para su observación. Sigue con atención el siguiente procedimiento, teniendo en cuenta estas precauciones:

• Cerciórate de que no haya ninguna llama en el cuarto, pues el éter es muy inflamable.
• El cuarto debe estar ventilado.

7. Golpea suavemente el fondo del frasco que contiene las moscas, para obligarlas a ir al fondo, quitando rápidamente el tapón del frasco de cultivo e invierte éste sobre el extremo abierto del frasco para eterizar. Golpeas suavemente, sobre la mesa de trabajo, el fondo del frasco para eterizar, así obligas a pasar las moscas a este último recipiente. Tu compañero o compañera de trabajo debe impregnar el algodón, que servirá de tapón, con unas gotas de éter.

Fuente Consultada: Enciclopedia Investigemos – Ciencia Integrada Tomo 3

LAS LEYES DE MENDEL: La validez de las leyes de Mendel sólo se confirmó hacia 1900 (16 años después de la muerte de Mendel). Varios botánicos obtuvieron resultados similares con experimentos de hibridación de plantas. Sin embargo, aunque las leyes de Mendel quedaron confirmadas, en un gran número de casos aparecieron excepciones. En aquel momento, la técnica del microscopio hizo grandes progresos y, estudiando la división de las células, se descubrieron los cromosomas.

Éstos tienen una estructura filiforme y se encuentran presentes en el núcleo de las células. Cada célula tiene un número fijo de cromosomas, y cada cromosoma puede aparearse con otro semejante. Las células del cuerpo humano contienen 23 pares; las células de una mata de guisantes, 7 pares. En los cromosomas pueden residir los factores de Mendel, y de hecho se ha demostrado experimentalmente. Los factores que llamamos “genes” son unas nucleoproteínas muy complicadas. Un cambio químico de poca importancia puede trasformar el factor grande en pequeño al modificar una nucleoproteína.

Cada gene se encuentra en un punto determinado de un cromosoma. En cada célula tenemos dos cromosomas apareados y, por tanto, dos genes para controlar un carácter. Si se trata de dos factores pequeños, o de dos grandes, el carácter es homozigótico (puro); si los factores son distintos, el carácter será heterozigótico(impuro).

Al formarse las células sexuales, los cromosomas sufren un fenómeno llamado “miosis”. Durante la miosis, los pares de cromosomas se separan; a cada una de las células sexuales (gametos) corresponde uno de los cromosomas del par. Esto es, exactamente, lo que estableció Mendel en su Segunda Ley: sólo uno de los factores de un determinado par puede encontrarse en un gameto. Son iguales todos los gametos de un individuohomozigótico; pero los de un individuo heterozigótico son de los dos tipos, en número igual.

Mendel tuvo la suerte de elegir caracteres como la forma y el color de las semillas, que se encontraban localizados en distintos cromosomas. Con “genes” ligados (es decir, que se encuentran en el mismo cromosoma) los resultados hubieran sido distintos. Al obtener, únicamente, semillas lisas y amarillas, o rugosas y verdes, porque LA y rv no se hubieran separado, Mendel no hubiese podido establecer su Tercera Ley. Esto ocurre con muchos caracteres, debido al enorme número de genes que hay en cada cromosoma. Los genes ligados son la causa de una excepción importante a la tercera Ley de Mendel.

Los genes ligados pueden, sin embargo, separarse y esto ocurre con cierta frecuencia en el llamado entrecruzamiento. Este fenómeno consiste en la ruptura de dos cromosomas (durante la miosis), que se vuelven a unir por distinto sitio.

Como se observa en la figura, cuanto más separados están dos genes en un cromosoma, más probabilidades hay de que se separen por entrecruzamiento. Haciendo un estudio estadístico de la frecuencia con que se separan dos genes, que normalmente se encuentran en un mismo cromosoma, se diseña un “mapa genético” de un cromosoma determinado. El entrecruzamiento es un importante origen de la variación en los seres vivos.

cromosomas

Si “L” y “A” (y “r” y “v”) están ligados normalmente, al separarse los cromosomas aparecerán juntos.

mendel y las leyes


Si los cromosomas se rompen y se vuelven a unir, “L” y “A” y “r” y “v” pueden separarse cuando los cromosomas se dividen para producir gametos.

Biografia de James Clark Maxwell Sus Obras Electromagnetismo

Biografía de James Clark Maxwell
Sus Obras Sobre Electromagnetismo

Siendo muy joven, con menos de 30 años de edad el escosés James Clerk Maxwell, se ganó una sólida reputación como hombre de ciencia. Acababa de encontrar la causa del daltonismo y de mostrar que los anillos de Saturno están formados por gran número de rocas de todos los tamaños.

Trató por entonces de comprender, mediante una analogía mecánica, el significado de las líneas de fuerza que había introducido Faraday para justificar la simetría entre los campos eléctricos y magnéticos. Imaginó el espacio lleno de unos engranajes que se mueven unos a otros, los torbellinos moleculares, cuyos ejes de rotación son las líneas de fuerza de Faraday. Estas consideraciones meramente mecánicas le permitieron explicar todos los fenómenos eléctricos y magnéticos conocidos. Reduciendo a un punto la dimensión de sus torbellinos, dio las ecuaciones del campo electromagnético tal y como se las emplea en la actualidad, con lo que operó la primera unificación en la historia de la física.

El campo electromagnético así definido se caracteriza por ondas que se propagan a velocidad finita: a unos 300.000 km/s, que coincidía justamente con la velocidad de la luz que acababa de medir Léon Foucault. De ahí dedujo Maxwell que el «éter» introducido en óptica por A. Fresnel era de la misma naturaleza que aquel en el que se propagaban sus ondas electromagnéticas. A los contemporáneos de Maxwell esta notable síntesis les pareció de lo más delirante; pero en 1887, ocho años después de su muerte, fue verificada experimentalmente gracias a los trabajos de Heinrich Hertz.

Biografia de James Clark Maxwell Sus Obras ElectromagnetismoBIOGRAFÍA Y SU OBRA CIENTÍFICA:(Edimburgo, 13 de junio de 1831 – Cambridge, 5 de noviembre de 1879), el más imaginativo de los científico del siglo XIX, dio a los descubrimientos de FARADAY andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces conocidos en el cuadrando una teoría de notable hermosura y de acabada estructura.

Físico escocés. Nació en el seno de una familia perteneciente a la nobleza. Su padre practicaba la abogacía, se ocupaba de la explotación de sus tierras y, en suma, era un hombre activo que le ayudó en su formación muy poderosamente. Estudió en la Academia de Edimburgo obteniendo éxitos en Matemáticas y Literatura.

A la edad de quince anos presentó -a través de las amistades de su progenitor- , en la Real Sociedad de Edimburgo, una nueva solución al problema del óvalo perfecto, que fue aceptada como la más simplificada de las hasta entonces existentes.

A los diecisiete años inicia un estudio sobre las refracciones de la luz y el comportamiento de los sólidos elásticos, que concluye en menos de tres años con expresiones matemáticas de los resultados obtenidos. Ingresa en la Universidad de Cambrigde y comienza a escribir ensayos literarios y filosóficos. Acabada su carrera publica un estudio sobre los colores que consolida su fama anterior como científico. Como personalidad peculiar e incluso extravagante, su paso por la Universidad supuso en él cierta moderación.

Profundiza en los estudios iniciados por Faraday y universaliza sus principios mediante su aprehensión matemática. Con respecto a la “propagación de ondas” en el espacio razonaba así:

El cambio del campo eléctrico, razonó MAXWELL, engendra en proximidad un campo magnético, e inversamente cada y acción del campo magnético origina uno eléctrico. Dado que, acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos —cambios-dirección e intensidad— de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente liga ellas.

Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de  investigaciones de WEBER y KOHLRAUSCH, con la misma ve dad que la luz. De esta doble analogía y con genial MAXWELL concluye su identidad: la luz, afirma, consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.

A la construcción teórica erigida por MAXWELL, HEINRICH HERTZ (1857-1894) brindó la base de la comprobación experimental. En 1888 logró producir ondas por medios exclusivamente eléctricos y demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que sus longitudes de onda son enormemente mayores. HERTZ pone en evidencia que las ondas eléctricas se dejan refractar, reflexionar, polarizar, y que su velocidad de propagación es igual a la luz. La predicción de MAXWELL se había realizado: ¡la existencia de las ondas electromagnéticas era una realidad tangible!

Mxwell es aceptado en círculos científicos y adquiere reconocimiento, pero no obtiene grandes honores, ni ocupa puestos importantes. Maxwell es y no es un revolucionario. Pero es un genio indiscutible. En él se halla el desarrollo de las teorías de Faraday y en él la base de las de Planck.

Durante un breve tiempo trabaja en la Universidad de Aberdeen y posteriormente en el Colegio Real de Londres, hasta 1865. A este tiempo corresponde la fundamentación matemática de las leyes físicas de Faraday sobre la dinámica del campo electromagnético. Abandona el Colegio y se retira a la finca de su patrimonio familiar. Desde allí hace viajes a Cambridge para algunas labores académicas. Fundó el laboratorio Cavendish y lleva su dirección realizando la síntesis del estudio teórico-práctico de la Física. Esta institución supuso una evolución al prestigio teórico de Cambridge. Posteriormente fueron sus directores Rayleigh, Rutherford…

Una vez establecida la posibilidad de transmitir oscilaciones eléctricas sin conductor, el paso decisivo estaba dado para constituir la telegrafía inalámbrica, cuyo primer esbozo se escondía en los experimentos de HERTZ y que había sido desarrollada por el francés EDOUARD BRANLY, el inglés OLIVER LODGE, el ruso GEORGE POPOFF y el italiano GUGLIELMO MARCONI. En 1899 las ondas hertzianas lograron cruzar el Canal de la Mancha y años después el océano Atlántico.

Tan grande como su utilidad práctica fue la inmediata consecuencia teórica de las investigaciones de MAXWELL y de HERTZ. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente por las longitudes de onda. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, terminó en los días de HERTZ con los rayos ultravioletas, a los que pronto debían agregarse los rayos X, los rayos radiactivos y los rayos cósmicos.

En 1931 con motivo de la conmemoración del centenario de su nacimiento Albert Einstein describió el trabajo de Maxwell como “el más profundo y provechoso que la física ha experimentado desde los tiempos de Newton”.

LAS ECUACIONES DE MAXWELL
LA SÍNTESIS DE LA TEORÍA CLÁSICA DEL CAMPO ELECTROMAGNÉTICO

Maxwell ideó las ecuaciones que llevan su nombre. Éstas se definen como las relaciones fundamentales entre las perturbaciones eléctricas y magnéticas, que simultáneamente permiten describir la propagación de las ondas electromagnéticas, las cuales, de acuerdo con su teoría, tienen el mismo carácter que las ondas lumínicas.

Las ecuaciones de Maxwell son un conjunto de varias ecuaciones que aparecieron de manera separada en el año 1861 en el ensayo Sobre las líneas de fuerza físicas.

Aplicación del modelo de vórtices Cabe decir que originalmente Maxwell concibió diversas ecuaciones, pero no fue hasta el año 1884 cuando Oliver Heaviside, junto con Willard Gibbs, agrupó esas ecuaciones (la mayoría de las cuales no eran originales sino recuperadas por Maxwell mediante el uso de su modelo de vórtices de las líneas de fuerza de Faraday) y las reformuló con la notación vectorial actual.

Así, se pasó de las ecuaciones de Maxwell a las que actualmente son conocidas como las «ecuaciones de Maxwell».

Las ecuaciones
Aunque no se tenga un conocimiento suficiente del lenguaje matemático, resulta interesante conocer la representación y significado de las cuatro «ecuaciones de Maxwell». En ellas, E es el campo eléctrico; B lainducción magnética; d/dt la derivada parcial con respecte a dt tiempo; uo la permeabilidad; eo la constante dieléctrica; «div» o «nabla» (▼) y «rot» o «▼x», la divergencia y el rotacional respectivamente (operadores diferenciales con respecto a las dimensiones espaciales), y J la densidad de corriente.

En todos los casos las negrita; indican vectores:

1) Ley de Coulomb. La primera ley expresa el vínculo existente entre la electricidad y una de las propiedades fundamentales de la naturaleza: la carga eléctrica. Formalmente enuncia la relación entre el campo eléctrico £y : densidad de la carga eléctrica p.

2) La segunda ecuación expresa que no existen monopolos magnéticos libres.

3) Ley de Faraday. La tercera ecuación muestra una relación entre magnetismo y electricidad: la variación en el tiempo de un campo magnético genera un campo eléctrico.

4) Ley de Ampére. Finalmente, la cuarta ecuación representa la auténtica y más importante contribución Je Maxwell a la teoría del campo electromagnético. Establece que un campo magnéticos puede ser origina:: tanto por movimientos de carga eléctrica en la materia (movimiento representado por el vector de densidad de corriente J), como por la variación de un carneo eléctrico respecto al tiempo.

La  corriente de desplazamiento
Retrospectivamente, acaso pueda afirmarse que el aspecto más importante de la investigación llevada a cabo por Maxwell en el electromagnetismo sea la noción de corriente de desplazamiento, que introdujo en la ley de Ampére.

En su ensayo Una teoría dinámica del campo electromagnético (1864), Maxwell modificó la versión de la ley de Ampére. de modo que se podía predecir la existencia de ondas electromagnéticas, dependiendo del medio material, propagándose a la velocidad de la luz en ese medio. Así fue cómo Maxwell identificó la luz con una onda electromagnética, unificando así la óptica con el electromagnetismo.

Las ecuaciones originales de Maxwell desempeñan en el electromagnetismo clásico un papel análogo al de las ecuaciones de Newton en la mecánica clásica. Sin embargo, no sólo son ecuaciones matemáticamente más complicadas que las de Newton, sino que además tuvieron un papel fundamental en la elaboración de la teoría de la relatividad de Einstein.

MAXWELL Y LOS FUNDAMENTOS DE LA FÍSICA MODERNA
DE LAS ECUACIONES DE MAXWELL A LA ELECTRODINÁMICA CUÁNTICA
Entre Faraday y Einstein

Maxwell nació el mismo año en el que su gran predecesor Faraday descubrió la inducción electromagnética, y murió el año en el que nació su gran sucesor, Einstein. Y del mismo modo que Maxwell basó su teoría en ideas de Faraday, también Einstein empezó su andadura teórica siguiendo la estela de la teoría de Maxwell. En su revolucionario artículo sobre la relatividad especial dijo que su propósito era el de proporcionar «una teoría simple y consistente de la electrodinámica de los cuerpos en movimiento basada en la teoría de Maxwell para los cuerpos estacionarios».

Einstein se encontró con que las ecuaciones de Maxwell describían correctamente el comportamiento de la luz, tanto si aquellos que lo observaban como si las fuentes que la originaban estaban en reposo o en movimiento, lo cual le permitió rechazar la hipótesis de la existencia de un éter.

La noción cuántica de Planck

En un quiebro que resultaría histórico, el mismo año que Einstein publicaba su ensayo basado en la teoría de las ondas electromagnéticas de Maxwell, también publicó otro artículo en el que demostró que la luz no consistía completamente en ondas, consolidando la hipótesis matemática de Planck de que en el nivel subatómico la luz (y la otra radiación electromagnética) a veces se comporta como si fuera una partícula, esto es, como si la estructura subatómica desús ondas no fuera lisa y continua, sino que estuviera dividida en porciones separadas de cuanta.

Planck había introducido la noción cuántica como una técnica para analizar un fenómeno físico particular (conocido como «radiación de cuerpo negro»). Ahora Einstein -sugería que los cuanta tenían existencia física, no solo matemática. De no ser así, no podrían explicarse ciertos fenómenos observados (en particular, el efecto foto-eléctrico en el que ciertos sólidos emiten electrones cuando son irradiados con luz). El análisis de Einstein de este efecto le llevó a proponer la existencia de partículas de le más tarde denominadas «fotones».

Pero como ya advirtiera Maxwell, es difícil, e incluso puede llevar a error, tratar de explicar ideas esencialmente matemáticas en términos de analogías físicas y de lenguaje ordinario. Sin embargo, la noción de que la luz es una onda que a veces se comporta como una partícula es de algún modo análoga a la idea de que, en el plañe cotidiano, uno puede ver que la superficie de una mesa es lisa y sólida, pero que sí se pudieran observar los átomos de los que está constituida la madera de esa mes.; podrían verse innumerables «agujeros», es decir, una gran cantidad de espacios entre los electrones y otras par: a las subatómicas que componen el átomo.

Paul Dirac
Con este ejemplo puede verse que la teoría de Maxwell fue tomada como base para ulteriores desarrollos y que sus logros desempeñaron un papel determinante en la posibilidad de realizar nuevos descubrimientos. Baste añadir que Paul Dirac (1902-1984), de forma explícita, fundió en una teoría del campo unificada la mecánica cuántica, la teoría de la relatividad especial y la teoría de Maxwell.

Las ecuaciones de Maxwell acerca de la radiación electromagnética también se aplican a los efectos de un fotón individual (una partícula de luz). Las ecuaciones de Dirac sobre el comportamiento de los electrones tienen una estructura matemática similar a las ecuaciones de Maxwell para los fotones y conjuntamente constituyen los fundamentos de la electrodinámica cuántica (la célebre quantum electrodinamics, QED).

Así, las ecuaciones decimonónicas de Maxwell, fundamento tanto de la QED como de la relatividad especial, sobrevivieron a la revolución de la física del siglo XX, durante el que la teoría cuántica y la teoría de la relatividad cambiaron por completo nuestra concepción del mundo físico.

PARA SABER ALGO MAS…
La teoría del electromagnetismo
En 1900, la física newtoniana dominaba todavía el panorama. Durante más de doscientos años había sido suficiente para explicar y cuantificar una amplia gama de fenómenos naturales, desde el movimiento de los cuerpos celestes hasta las oscilaciones del péndulo, pasando por la corriente de los líquidos.

Los grandes adelantos de la ingeniería civil y mecánica del siglo XIX partían de la validez de la física clásica. Sin embargo, durante la segunda mitad del siglo XIX se observaron fenómenos para los que la teoría existente resultaba inadecuada. El principal elemento nuevo era el electromagnetismo (el magnetismo producido por las corrientes eléctricas). El fenómeno no contenía ninguna novedad en sí mismo, ya que la electricidad y el magnetismo se habían investigado experimentalmente desde el siglo XVII, y en el mundo occidental estaban ampliamente difundidas sus aplicaciones, en especial el telégrafo, el teléfono y la luz eléctrica. Aun así, si bien era posible generar y utilizar la electricidad, su naturaleza y su relación con el magnetismo constituían un misterio.

Uno de los primeros en desarrollar una amplia teoría que relacionaba la electricidad con el magnetismo fue James Clerk Maxwell (1831-1879), un brillante físico y matemático británico que en 1871 fue el primero en ocupar la cátedra Cavendish de física experimental en Cambridge. Fue el responsable de la organización del famoso laboratorio Cavendish, en el que tantos descubrimientos importantes sobre física atómica se realizaron durante el siglo XX. A partir de las ideas de Mi-chael Faraday (1791-1867) y William Thomson (lord Kelvin; 1824-1907), Maxwell elaboró una elegante interpretación matemática de todos los fenómenos electromagnéticos conocidos hasta entonces. Su celebrado Tratado sobre electricidad y magnetismo fue publicado en 1873.

No era una mera hazaña intelectual, ya que tenía importantes implicaciones prácticas. Una de ellas era que la luz constituía una perturbación electromagnética, que debía viajar a una velocidad igual al cociente de las unidades electrodinámicas y electrostáticas de la electricidad. Este cociente ya había sido determinado experimentalmente como 3,1X1010 cm por segundo, una cifra muy cercana a las mejores mediciones de la velocidad de la luz. Surgió así una clara relación entre la óptica y la electricidad, así como la posibilidad de que existiera un amplio espectro de radiación electromagnética, del cual la luz visible sería sólo una parte.

No todos los contemporáneos de Maxwell aceptaron la validez de sus propuestas teóricas. Entre los que trataron de someterlas a prueba figuraba el físico alemán Heinrich Hertz (1857-1894). Uno de sus experimentos consistía en utilizar una bobina de inducción para cargar un rectángulo de alambre de cobre en el que había dejado una breve discontinuidad; al activar la bobina, una chispa atravesaba el espacio vacío. Luego comprobó que era posible inducir simultáneamente una chispa a distancia, en un circuito similar descargado.

Evidentemente, la primera bobina generaba ondas eléctricas que el segundo circuito podía captar. Hertz demostró que estas ondas eran esencialmente lo mismo que las ondas luminosas. Viajaban a la misma velocidad y presentaban los fenómenos de reflexión y refracción. Las experiencias de Hertz (1886-1888) eran puramente académicas. Su único objeto era poner a prueba la teoría de Maxwell y sólo conseguían detectar ondas eléctricas a una distancia de no más de 20 metros. Pero en las hábiles manos del empresario italiano Marconi se convertirían en la base de un nuevo medio de comunicación de enorme importancia.

Aunque estos experimentos demostraron la validez de las principales conclusiones de Maxwell, todavía quedaba por superar un importante obstáculo. Según su teoría, la luz era una onda electromagnética que se desplazaba a una velocidad fija e independiente de los movimientos de la fuente o del receptor. Sin embargo, el sentido común sugería que tales movimientos tenían que añadirse a la velocidad definitiva. Se propusieron varias teorías ingeniosas para reconciliar estas dos proposiciones, pero sólo en 1905 se encontraría una explicación satisfactoria, con la teoría especial de la relatividad de Einstein.

Obras de Maxwell James Clerk
LIBROS

* On the Stability ofthe Motion of Saturn’s Rings (Sobre la estabilidad del movimiento de los anillos de Saturno), 1859.

* Theory oftieat (Teoría del calor), 1871.

* Treatise on Electricity and Magnetism (Tratado sobre electricidad y magnetismo), 1873.

* Matter and Motion (Materiay movimiento), 1873. The Eléctrical Researches of the Honourable Henry Cavendish (Las investigaciones sobre electricidad del honorable Henry Cavendish), 1879.Texto escrito entre 1771 y 1781 en el que Maxwell tuvo una importante participación; editado a partir de los manuscritos originales en posesión del duque de Devonshire.

* Elementary Treatise on Electricity and Magnetism (Tratado elemental sobre electricidad y magnetismo), edición deW.Garnett, 1881

* The Scientific Papers of James Clerk Maxwell (Los ensayos científicos de James Clerk Maxwell), edición de W. D. Niven, 2 vol., 1890.

* Origins of Clerk Maxwell’s Electric Ideas as Described in Familiar Letters to William Thomson (Los orígenes de las ideas eléctricas de Clerk Marxwell, según se describen en las cartas enviadas a William Thomson), edición de Joseph Lamor, 1937.

*A Dynamical Theory ofthe Electromagnetlc Field: With an appreciation by Albert Einstein (Una teoría dinámica del campo electromagnético), edición de Thomas F. Torrance, 1982.

* The Scientific Letters and Papers of James Clerk A : (Las cartas y ensayos científicos de James Clerk Maxwell) Edición de R M. Harman, 3 vol., 1990-2002.

SELECCIÓN DE ENSAYOS Y RELACIÓN DE APORTACIONES CIENTÍFICAS (POR TEMAS)
Color

* Sobre la teoría de la síntesis aditiva de color en referencia a las mixturas de la luz azul y amarilla, 1856.

* Experimentos sobre el color tal como lo percibe el:: comentarios sobre daltonismo, 1857.

* Sobre la teoría de la síntesis aditiva del color y :: dones de los colores del espectro, 1860.

-Invención del trompo de color.

– Invención de la caja de color.

-Confirmación de la teoría tricromática de la luz de Young  (que mostró que el verde era el tercer color junto con el rojo y el azul, en vez del amarillo).

– Investigación de la visión del color.

– Calculó la posición relativa de los colores en un espacio representacional del color isoluminoso.

-Mostró las posiciones de los colores sobre una superficie de color equiluminosa.

– Comprensión del daltonismo y del funcionamiento fisiológico del ojo (los tres receptores de colores).

-Aplicación de la teoría tricromática para mostrar cómo proyectar una fotografía de un objeto en color.

-Precursor de la fotografía en color moderna.

ÓPTICA
* Sobre la doble refracción en un fluido viscoso en movimiento, 1873

* Sobre la relación de la óptica geométrica con otras partes de la matemática y la física, 1874.

* Sobre la aplicación de la función característica de Hamilton a la teoría de un instrumento óptico simétrico sobre su eje, 1875

– Invención de las lentes de gran angular para cámaras.

– Desarrolló el método foto-elástico a través del cual la luz polarizada es pasada a través de materiales birrefringentes (cola de pescado) para mostrar el patrón de tensión.

Anillos de Saturno
* Sobre la estabilidad y el movimiento de los anillos de Saturno, 1859.

* Sobre las teorías acerca de la constitución de los anillos :e Saturno, 1862.

-Investigaciones sobre la estabilidad de los sistemas plantarios.
– Hipótesis relevante, según la cual los anillos de Saturno podrían consistir sólo en partículas discretas.

Dinámica
* Sobre una peonza dinámica para ilustrar el fenómeno del movimiento de un sistema deforma invariable sobre un punto fijo, con algunas sugerencias relativas al movimiento de la Tierra, 1857.

* Sobre la prueba de las ecuaciones del movimiento de un sistema conectado, 1873.

– Ilustraciones de los muchos movimientos posibles de un cuerpo rígido en rotación.

Gases
* Ilustraciones de la teoría dinámica de los gases.

Parte 1: «Sobre los movimientos y colisiones de esferas perfectamente elásticas», 1860.
Parte 2: «Sobre el proceso de difusión de dos o más tipos de partículas que se mueven las unas entre las otras», 1860.

* Sobre la viscosidad o fricción interna del aire y otros gases, 1866.

* Sobre una teoría dinámica de los gases, 1867.

* Sobre las tensiones en gases enrarecidos que surgen de desigualdades en la temperatura.

* Sobre el teorema de Boltzmann sobre la distribución promedio de la energía en un sistema de puntos materiales, 1879.

– Introdujo la probabilidad y la estadística en la física.

– Desarrolló la teoría cinética de los gases.

– Distribución de Maxwell» de las velocidades moleculares.

– Predicción de las propiedades de los gases.

– Las cuatro ecuaciones diferenciales parciales de la termodinámica de Maxwell.

– El «demonio» de Maxwell (presentado en la Teoría del calor) que permitió avanzar hacia una teoría de la información e investigar las conexiones profundas con la segunda ley de la termodinámica.

-Tensiones en gases enrarecidos y explicación del radiómetro de Crookes (algunos autores atribuyen la primera explicación a Tait).

– El trabajo de Maxwell se utilizó como modelo para los gases enrarecidos y plasmas.

Moléculas y átomos
* Discurso sobre las moléculas, 1873.

* Sobre la evidencia dinámica de la constitución molecular de los cuerpos, 1875.

* Átomo, 1875.

Electricidad y magnetismo
* Sobre las líneas de fuerza de Faraday, 1855.

* Sobre las líneas de fuerza físicas.

Parte 1: «La teoría de los vórtices moleculares aplicada a los fenómenos magnéticos», 1861.
Parte 2: «La teoría de los vórtices eléctricos aplicada a las corrientes eléctricas», 1861.
Parte 3: «La teoría de los vórtices eléctricos aplicada a la electricidad estática», 1862.
Parte 4: «La teoría de los vórtices eléctricos aplicada a la acción del magnetismo sobre la luz polarizada», 1862.

* Una teoría dinámica del campo electromagnético, 1864

* Sobre un método para realizar una comparación directa de la fuerza electrostática con la fuerza electromagnética; con una nota sobre la teoría electromagnética 1868.

* Sobre la acción a distancia, 1873.

* Teoría de la inducción eléctrica, 1876.

-Creó una teoría del campo de la luz unificando la e electricidad y el magnetismo (la primera teoría del campo unificada).

-Se deshizo de los modelos mecánicos y cambió por   completo nuestra percepción de la realidad física.

– La luz y las ondas electromagnéticas.

-La luz transporta impulsos y ejerce presión.

– Predijo tipos de radiación distintos a los de la luz -calor radiante (por ejemplo, sostuvo que existía un espectro electromagnético).

– Sugirió distintos modos de detectar el éter, lo que condujo al famoso experimento Michaelson-Morley, lleva: a cabo en 1887, considerado como la primera gran evidencia en contra de la existencia de un éter lumínico.

– Su trabajo llevó a la invención de la radio, el radar, la télevisión, los microondas, la toma de imágenes térmica; p los telescopios infrarrojos.

-Proporcionó algunos de los fundamentos básicos :;-el trabajo de Einstein sobre relatividad.

Estática, presión sobre estructuras, diagramas recíprocos
* Sobre las figuras recíprocas y los diagramas de fuerzas, 1864.

* Sobre el cálculo del equilibrio y la rigidez de las estructuras,1864.

* Sobre las figuras recíprocas, las estructuras y los diagramas de fuerzas, 1872

– Mostró cómo calcular las tensiones en arcos de estructuras y puentes en suspensión (aunque no hay seguridad de que Maxwell fuera el primero en hacerlo).

– Mostró cómo utilizar el teorema recíproco de Maxwell Dará estructuras estadísticamente indeterminadas.

Propiedades de los sólidos, las superficies y los fluidos
* Sobre el equilibrio de los sólidos elásticos, 1850.

* Sobre la transformación de las superficies al curvarse, 1856.

* Sobre el desplazamiento en un caso de movimiento de fluidos, 1870.

-El tensor de Maxwell.

Instrumentos
* Sobre las leyes generales de los instrumentos ópticos, 1858.
* Consideraciones generales relativas a los aparatos científicos, 1876.

Conductores de rayos
* Conductores de rayos, 1875.

* Sobre la protección de edificios respecto de los rayos, 1876.

Estándares eléctricos
* «Informe del Comité de Estándares Eléctricos encargado por la Asociación Británica para el Progreso de la Ciencia» (junto con Thomson, Joule y Jenkin), 1873.

– Determinación de las unidades eléctricas fundamentales.

Textos fundamentalmente matemáticos
* Sobre la teoría de las curvas onduladas, 1849.
* Sobre un caso particular del descenso de un cuerpo pesado en un medio que ofrece resistencia, 1854.
* Sobre el equilibrio de un envoltorio esférico, 1867
* On Covernors, 1867-1868.
* Sobre colinas y valles, 1870.
* Sobre la distancia media geométrica de dos figuras sobre un plano, 1872.
* Sobre el problema del cálculo de las variaciones en el que las soluciones son discontinuas, 1876.
* Sobre una paradoja en la teoría de la atracción, 1877

-Algunos autores consideran que el ensayo Sobre colinas y valles puede considerarse como pionero de la rama de las matemáticas del llamado «análisis global».

– Fue pionero (junto con Peter Guthrie Tait) del análisis vectorial.

– El trabajo que presenta Maxwell en On Covernors puede considerarse como el origen de la «teoría de control». En él presenta su criterio de estabilidad para sistemas lineales dinámicos e invariantes. En este trabajo Maxwell establece una diferenciación entre Regulators o Moderators (los conocidos actualmente como reguladores proporciona les) y Covernors (reguladores con acción integral).

Fuente Consultada: Historia de las Ciencias Desiderio Papp

La Ciencia en el Siglo XVIII:Ilustracion y Ciencia Racionalismo Pensamiento

Juegos de sociedad para personas inteligentes: así eran considerados, todavía en el siglo XVIII, los experimentos sobre los fenómenos de la electricidad, que, por cierto, no existian prever muy extraordinarios progresos en esta rama de la ciencia.

La electricidad aparecía como un hecho extraño, curioso, un poco peligroso y un tanto divertido, pero por completo carente de aplicación práctica de ninguna especie.

Correspondió a dos ilustres estudiosos de la generación de sabios e investigadores del siglo XVIII la tarea de cambiar radicalmente este modo de pensar y de crear interés en torno de los estudios relativos a la electricidad: tales fueron Luis Galvani y Alejandro Volta.

Galvani experimentos
Galvani Luigi
Volta Alessandro
Volta Alessandro

Galvani y Volta son dos nombres que siempre aparecen unidos, porque no es posible hablar de la obra del uno sin hacer referencia a la del otro. Lo cual no quiere decir que estuvieran siempre de acuerdo en la exposición de sus principios; antes bien, como suele suceder en todas las ramas de las ciencias cuando comienzan a dilucidarse, surgieron entre ambos notorias diferencias de opiniones, que se manifestaron en la publicación de escritos y libros referentes al mismo tema.

De más está decir que ante la discrepancia de juicios, supieron mantener el alto nivel que corresponde a la jerarquía de la ciencia y a la caballerosidad de los que fueron sus máximos exponentes.

La máquina de vapor
Los primeros telares mecánicos eran grandes y pesados, y requerían de una gran fuerza energética para hacerlos funcionar, por lo que continuó la búsqueda de un mecanismo para producir energía por medio del vapor. Este invento lo debemos a James Watt.

Después de trece años de experimentar, Watt consiguió fabricar una máquina movida por energía que liberaba una corriente continua de vapor de agua.

Antes de comenzar el siglo XIX se habían construido ya como quinientas   máquinas   en   los talleres. Este invento transformó en pocos años las formas de trabajo, y es considerado como uno de los inventos más trascedentales de la historia humana. Por otra parte, al ser aplicado al transporte se experimentó también una impactante     transformación, pues aparecieron el ferrocarril y el  barco de vapor.

El ferrocarril: El concepto moderno de ferrocarril  aparece como resultado de la combinación de dos elementos: los raíles utilizados en las explotaciones mineras y la máquina de vapor. En las minas de carbón se utilizaban desde el siglo xvi carriles o vigas de madera para el transporte en vagonetas de carbón desde la bocamina al río más próximo. Desde la segunda mitad del siglo XVIII, estos carriles son sustituidos por raíles de hierro (de ahí su denominación de «ferrocarriles»).

Posteriormente, los ferrocarriles son empleados en el tráfico de viajeros, aunque la fuerza de tracción continúa siendo animal (caballos). Esta alternativa no sólo era menos costosa, sino que permitía desplazamientos más rápidos que los efectuados por carretera.

En cuanto al segundo aspecto, en el último cuarto del siglo XVIII  ya era conocida la ¡dea de aplicar la caldera de vapor a una máquina de transporte autopropulsada (locomotora). La primera experiencia es la realizada por un francés, Joseph Cugnot, que en 1769 logra crear un automóvil a vapor que alcanzará una velocidad muy limitada, de tan sólo 4 o 5 km/h. En 1803, Richard Trevi-thick inventa un carruaje movido por vapor, pero tras una experiencia práctica se da cuenta de que las carreteras no estaban adaptadas a este nuevo medio de locomoción.

La revolución agraria: En el siglo XVIII la agricultura inglesa comenzó a manifestar unas transformaciones más de índole social que técnica que se conocen con el nombre de «revolución agraria». En el siglo siguiente, algunos de estos cambios se extenderán por Europa. Esta revolución afecta a dos campos claramente diferenciados:
Nuevas técnicas de producción y sistemas de cultivo. Las innovaciones técnicas son prácticamente irrelevantes hasta mediados del siglo xix, por lo que durante todo el siglo xvm los avances se limitan a racionalizar las técnicas arcaicas vigentes en Gran Bretaña.

Nuevo ordenamiento jurídico y redistribución de la propiedad agraria. La burguesía europea, en ascenso, desea acceder a la propiedad de la tierra en sustitución de la nobleza absentista, y esta aspiración empieza a materializarse con el inicio de una oleada de revoluciones liberales desde finales del siglo xvm y principios del siglo siguiente, cuando la burguesía revolucionaria en el poder liquida un régimen señorial en decadencia mediante la supresión de los vestigios arcaicos. Así, la propiedad de la tierra será transferida en una gran proporción desde los estamentos privilegiados a la burguesía.

En 1796, Edward Jenner, un físico inglés, inoculó el pus de una pústula de viruela a un niño como protección contra la enfermedad. El experimento tuvo un éxito notable: incluso después de exponer el paciente a la viruela, no aparecieron síntomas. Así empezó la vacuna contra enfermedades infecciosas, uno de los Inventos más beneficiosos de ¡a historia. Millones de vidas se han salvado gracias ai amplio uso de la inoculación.

Ya en el siglo XVII se habían estudiado los fenómenos eléctricos, cuando el científico inglés William Gilbert demostró la fuerza de atracción que experimentaban los objetos al friccionarlos. Más tarde, en 1750, el Inventor y político norteamericano Benjamín Franklin desarrolló sus famosos experimentos con los rayos para demostrar que eran electricidad.

Como decíamo antes, muchos científicos trabajaron en la comprensión de la naturaleza de la electricidad y sus propiedades en la última parte del siglo XVIII. El físico Luigi Galvani demostró la presencia de electricidad en la transmisión de señales nerviosas en 1766, a lo que siguió el trabajo del científico Alessandro Volta, que en 1880 creó la primera pila, la pila voltaica, colocando dos barras de metales distintos sumergidos en una solución salina.

Pero fue un aprendiz de encuadernador, Michael Faraday, quien descubrió las propiedades más importantes de la electricidad. Faraday llevó a cabo algunos estudios sobre la naturaleza de la electricidad y, en la década de 1820, construyó el primer motor eléctrico, un aparato que transformaba ¡a energía eléctrica en energía mecánica utilizando la Interacción de la corriente eléctrica y el magnetismo.

Faraday prosiguió sus trabajos sobre la electricidad y descubrió el fenómeno de la inducción electromagnética, o la producción de corriente eléctrica a partir del cambio de un campo magnético. Esto le llevó a construir la primera dinamo en 1831, un aparato que transformaba la energía mecánica en energía eléctrica.

Tanto el diseño del motor eléctrico como el de la dinamo experimentaron mejoras en años posteriores, y el resultado fueron motores más grandes capaces de sustituir el vapor, así como enormes generadores de energía eléctrica. La electricidad transformó la vida como pocas tecnologías lo habían hecho a lo largo de la historia. Antes de acabar el siglo XIX se hizo realidad la existencia de luz eléctrica económica, los tranvías y el uso de la energía eléctrica en la industria.

La electricidad aplicada a la iluminación empezó a principios del siglo XIX. Las primeras lámparas fueron las de arco eléctrico, que utilizaban electrodos de carbón entre los que se colocaba un arco eléctrico para generar luz.

Aunque su manejo era complicado, estas lámparas tuvieron mucho éxito, sobre todo en la iluminación callejera. A mediados de siglo, los científicos experimentaron con el uso de filamentos para la iluminación.

Un inglés, Joseph Swan, utilizó filamentos de carbono e incluso hilos de algodón bañados en ácido para pasar corriente eléctrica y generar luz.

Pero fue el genio norteamericano Edison quien reunión todas estas ¡deas para patentar la primera ampara incandescente. Utilizó una bomba de vacío para crear un casi vacío en una bombilla de vacío equipada con cable de carbono. El vacío era necesario para asegurar la duración del filamento. Swan también probó con filamentos de varios materiales y existe una controversia sobre quién debería realmente considerarse autor de la Invención de la bombilla incandescente.

En 1879, Edison creó la primera lámpara de larga duración con hilo carbonizado, que brillaba de forma continua durante más de dos días. Tras esta demostración, se probaron muchos otros materiales para conseguir filamentos más duraderos.

El primer uso comercial de la lámpara incandescente fue en el buque Columbia en 1880 y, en los años siguientes, las bombillas incandescentes se emplearon en fábricas, tiendas y hogares. SI el ferrocarril había transformado el concepto de distancia para los humanos, la luz artificial en forma de bombillas incandescentes liberó a los humanos del ciclo del día y de la noche en lo que al trabajo se refiere.

En 1907, Franjo Hannaman introdujo las lámparas de filamento de tungsteno, más luminosas y duraderas que las de filamento de carbono. Hasta muy recientemente, la mayoría de bombillas incandescentes utilizaban filamento de tungsteno. En los años siguientes se realizaron varias modificaciones en el diseño, incluyendo otros gases menos frecuentes para aumentar la duración de la bombilla y el uso de un filamento en espiral.

La otra tecnología lumínica, inventada hacia finales de siglo, fueron las lámparas de descarga eléctrica. En 1901 se presentó una lámpara de vapor de mercurio cuyo uso se extendió rápidamente.

El principio básico de las lámparas de descarga eléctrica es el uso de dos electrodos, separados por un gas, para transmitir una corriente eléctrica. En 1910, Georges Claude produjo la primera lámpara de neón, aplicando un alto voltaje a un tubo lleno de gas de neón.

La luz producida era roja y enseguida se desarrolló el potencial comercial de este invento. Las lámparas de neón pronto se utilizaron en vallas publicitarias y carteleras de anuncios en todo el mundo.

la ciencia en el siglo XVIII

1752 – Un médico francés practica la extracción ¡as cataratas a cerca de 200 enfermos,
logrando suración de casi todos los casos.
la ciencia en el siglo XVIII

1761 – Se funda, en Lyón, la primera escuela de veterinaria y se intensifica su estudio.
la ciencia en el siglo XVIII

1767 – Lázaro Spallanzani (1729-1799), italiano, «autoriza definitivamente la teoría de la generación spontánea de los seres vivientes, probando que hasta is Rérmenes nacen también de otros gormónos.
la ciencia en el siglo XVIII

1776 – Como consecuencia de los estudios y escritos de un naturalista alemán, Simón Pallas (1741-1811), nace la historia natural del hombre (etnografía).
la ciencia en el siglo XVIII

1779 – El naturalista inglés Jan lugenhousz demuestra que las funciones respiratorias de los vegetóles son cumplidas por todos los tejidos, y que en las partes verdes, bajo la acción de la luz, se efectúa, además, una labor contraria (función clorofílica).

Fuente Consultada:
Historia de los Inventos Desde la Antiguedad Hasta Nuestros Días – Fullmann
Historia Universal Editorial ESPASA Siglo XXI