Caida Libre de los Cuerpos

El Cobalto Propiedades, Características y Aplicaciones

El Cobalto Propiedades, Características y Aplicaciones

Algunos compuestos de cobalto constituyen pigmentos azules fijos, de gran calidad, que han sido empleados durante 4.000 años por diversas civilizaciones. Los asirio-babilonios usaron pinturas de cobalto en sus pequeñas estatuas talladas en madera, y, en tiempos más recientes, los compuestos de cobalto se han utilizado para decorar en azul la porcelana china de Delft, y para teñir de azul oscuro algunos vidrios.

Mineral de Cobalto

A pesar de que el cobalto es todavía valioso como pigmento, su valor en este sentido se ha visto eclipsado, durante los últimos años, por las propiedades del metal en sí, ya que el cobalto es ferromagnéticó, no tan intensamente magnético como el hierro, pero mucho más que la mayoría del resto de los metales.

Este hecho no es sorprendente, puesto que la estructura de los átomos de hierro y cobalto es muy similar. Los imanes fabricados de hierro dulce pierden rápidamente el magnetismo, pero si el hierro se alea con cobalto, la aleación resultante conserva esta propiedad durante un prolongado período de tiempo.

Ciertos imanes permanentes contienen hasta un 50 % de cobalto, empleándose en muchas piezas de aparatos eléctricos. Las aleaciones de cobalto tienen otra importante aplicación comercial basada en que conservan su dureza y filo (poder de corte), incluso a temperaturas elevadas.

De hecho, la mayoría de las herramientas de corte para trabajos a altas temperaturas contienen cobalto. Todavía más resistentes al efecto de ablandamiento de las temperaturas elevadas son las aleaciones de cobalto-cromo-volfranio-carbono, que se emplean también para fabricar herramientas de corte. La mayoría de la producción mundial de cobalto se destina a imanes o a aleaciones de «alta velocidad» (aceros rápidos).

A pesar de que menos de la quinta parte del cobalto producido se emplea bajo la forma de sus compuestos, éstos tienen demasiada importancia para no considerarlos. Los únicos compuestos de cobalto estables son los cobaltosos, en los que el metal presenta valencia 2. Las sales cobálticas (valencia 3) tienden a ser inestables.

La vitamina B12, de gran importancia, es una gran molécula, muy compleja, formada por 183 átomos, de los cuales sólo uno es de cobalto; pero, si falta este átomo resulta imposible que se produzca la vitamina Bu. La deficiencia de vitamina BJ2 en el ganado puede deberse a la ausencia de cobalto, y se corrige tratando el terreno, o los alimentos, con compuestos de aquél.

El óxido de cobalto se emplea en la industria cerámica no sólo como pigmento, sino también como agente de blanqueo. Los productos de alfarería fabricados con arcilla tienen con frecuencia impurezas de hiem , que les comunican un aspecto amarillento por lo que se les da un ligero tinte azul con óxido de cobalto, que oculta el color amarillo, de la misma forma que el añil agregado al lavado de ropa confiere a ésta un aspecto más blanco.

Las sales orgánicas de cobalto se emplean con profusión en pinturas, barnices y tintas para imprimir, a fin de que sequen con rapidez. Dichas sales absorben el oxígeno atmosférico para formar peróxidos, que polimerizan en una estructura de tipo celular, la cual actúa como el papel secante, absorbiendo el aceite remanente y transformando la masa total en un gel.

Los compuestos de cobalto son excelentes catalizadores de numerosas reacciones, hecho que se descubrió, por primera vez, al emplear este tipo de catalizador para obtener metano (CH4) a partir de monóxido de carbono e hidrógeno. En la actualidad, se emplean ampliamente en la industria del petróleo, para transformar moléculas inservibles en otras adecuadas para combustibles.

Debido a que el cobalto se presenta en una gran variedad de minerales y está, en general, mezclado con cobre, plata o níquel, existen diversos procesos para extraerlos, que dependen del tipo de mineral de partida. Los mayores productores de cobalto son Ka-tanga y Rhodesia, donde éste se encuentra asociado al cobre.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°41 El Cobalto y sus propiedades

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas.

La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios.

Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él.

Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte.

Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno.

En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10.

Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía.

Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides.

Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo.

La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

El Disco de Newton Descoposicion de la Luz

El Disco de Newton
Descoposición de la Luz

Kepler describió la armonía de los movimientos de los planetas. Newton, que probablemente nunca leyó sus obras, creó la mecánica celeste, es decir, que explicó el movimiento de los astros y, simultáneamente, las mareas, la caída, etc.

El gran matemático Lagrange dijo: «Hay sólo una ley del universo, y fue Newton quien la descubrió.» En la obra de Newton, jamás igualada por sabio alguno, culminan milenios de esfuerzos de las mentes más ilustres.

Su publicación constituye uno de los acontecimientos más notables, no sólo de la historia de la ciencia, sino de toda la historia humana.

Seguimos encarando como Newton la mecánica celeste (las modificaciones introducidas por Einstein sólo se refieren a factores mínimos, dentro de los márgenes de error previstos).

Al mismo tiempo que Leibniz, pero independientemente de él, Newton inventó el cálculo diferencial e integral y desarrolló diversas teorías matemáticas.

Fue también él quien construyó el primer telescopio a reflexión e inició el estudio experimental de la composición de la luz, fuente de toda la espectroscopia moderna, rama absolutamente indispensable de los estudios físicos y químicos actuales.

En esta nota veremos solamente cómo Newton explicó que la luz que consideramos blanca es, en realidad, una luz compuesta de varios colores.

En primer lugar, descompuso la luz solar: alrededor de 1666, mediante un prisma triangular de cristal atravesado por un haz luminoso, obtuvo lo que hoy llamamos un espectro, debido al diferente índice de refracción o desviación de cada uno de los colores que componen la luz blanca.

disco de newton

Es éste el experimento que se representa, en forma simplificada, en la ilustración superior. La división de un rayo de luz en sus componentes, debido a su diferente refracción, se denomina dispersión de la luz. El arco iris se basa en ella; las diminutas gotas de agua actúan como prismas, pero, a veces, el fenómeno natural es bastante más complicado que la experiencia que explicamos, porque intervienen además una o dos reflexiones.

Faltaba luego recomponer la luz blanca mediante la suma de los colores. Esto se consigue mediante un aparato denominado disco de Newton, que se ve en la ilustración inferior. Este disco, pintado con los mismos colores que componen el espectro de la luz blanca, adquiere, si gira muy rápidamente y recibe una iluminación intensa, un color uniformemente blanco.

El disco se hace girar y los colores forman la luz blanca

A medida que aumenta la velocidad del disco se van «sumando» los colores, el matiz general se hace grisáceo y, por último, sólo se observa un circulo uniforme de color blancuzco.

Estos dos experimentos completan, así, la descomposición y la recomposición de la luz blanca, en sus colores fundamentales.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología N°10

Tabla de Radiaciones Electromagneticas Ejemplos

Tabla de Radiaciones Electromagnéticas Ejemplos

Todas las emisión de radiaciones están presentes en los aspectos más variados de nuestra realidad, desde la función clorofílica de las plantas hasta las comunicaciones intercontinentales. Tal variedad de fenómenos determina, con frecuencia, una confusión sobre las particularidades y características de cada tipo de radiación; porque, aun cuando en conjunto sean todas emisiones de ondas sinusoidales, sus frecuencias y longitudes de onda peculiares les permiten desarrollar efectos  determinados.   Así,  los  rayos X,  que tienen  frecuencias muy altas pero cortas longitudes de onda, pueden atravesar perfectamente los tejidos animales y otros diversos materiales.

La radiación electromagnética se propaga en forma de ondas creadas por la oscilación en el espacio de campos eléctricos y magnéticos perpendiculares entre sí y a la dirección de propagación. Todas las ondas electromagnéticas viajan a la misma velocidad en el vacío, la velocidad de la luz c (300.000 Km/seg.), pero los distintos tipos de ondas tienen diferente longitud de onda y diferente frecuencia.

Estas dos magnitudes están relacionadas por la ecuación λ.f=c, de modo que a cada frecuencia le corresponde una única longitud de onda. El espectro completo de radiaciones electromagnéticas comprende una amplia variedad en longitudes de onda, desde las enormes ondas de baja frecuencia tan grandes como la Tierra, hasta los penetrantes rayos gamma, con longitudes más pequeñas que el núcleo de los átomos. Estos distintos tipos de radiación, si bien son producidos y detectados de maneras que les son propias, responden todos a la misma descripción ondulatoria de campos electromagnéticos.

Según la teoría electromagnética, las partículas cargadas aceleradas, como los electrones en una corriente variable dentro de un cable, irradian energía en forma de ondas. Las ondas de radio, de menos de 1010 Hz y longitudes mayores que 1 cm, pueden producirse y detectarse por circuitos eléctricos capaces de producir corrientes variables.

Este tipo de ondas es el que se ha utilizado para transmitir información «sin hilos», es decir, sin un cable que se extienda entre el transmisor y el receptor de información, desde los famosos experimentos de Hein-rich Hertz en el siglo pasado.

Al igual que la luz visible, las ondas de radio pueden ser reflejadas, refractadas y absorvidas.

En el cuadro siguiente se han reunido, por orden decreciente de frecuencias y creciente de longitudes de onda, los principales tipos de radiaciones que existen; los procesos de emisión, sus causas y medios de detección permitirán catalogar, de modo simple y rápido, las diversas clases de radiaciones, cuya serie, en conjunto, se denomina espectro electromagnético.

Es interesante observar que los receptores sensoriales del hombre sólo perciben las radiaciones de una pequeña zona del espectro (luz visible  y rayos  infrarrojos).

LA RADIACIÓN SE PRODUCE ENPOR FRECUENCIA
(CICLOS/SEG.)
TIPO DE LA RADIACIÓNPUEDE SER
DETECTADA POR
Explosión atómicaNúcleo atómico en oscilación1020Rayos gammaContador Geiger
Tubo de rayos X Trayectoria espiral de un electrón interno1018Rayos XPantalla de rayos X
Lámpara Trayectoria espiral de un electrón externo1016Rayos ultravioleta
Luz visible
Cámara fotográficaOjo
Estufa Trayectoria espiral de un electrón externo1012
1014
Rayos infrarrojos Receptores corporales
Sol Trayectoria espiral de un electrón1010 Micro-ondasPantalla de radar
Circuito oscilanteAntena Oscilación de la Carga En Un Conductor

106

104

Ondasde radio TelevisiónReceptor de radio

 

Ya se sabía que la luz era un movimiento ondulatorio antes de que Maxwell hiciera sus descubrimientos, pero no se había podido establecer de qué tipo era. Maxwell pudo demostrar que las oscilaciones provenían del campo eléctrico y magnético. Las ondas de Hertz tenían una longitud de onda de unos 60 cm, o sea que tenían una longitud de onda mucho más larga que las ondas de luz.

Actualmente reconocemos un espectro de radiación electromagnética que se extiende de  10 elevado a -15 m a 10 elevado a la 9 m.

Se subdivíde en franjas más pequeñas que a veces se solapan.

La ampliación del campo de la observación astronómica de las longitudes de onda visibles a otras longitudes de onda electromagnéticas ha revolucionado nuestro conocimiento del universo.

Las ondas de radio tienen una gama amplia de longitudes de onda, desde unos cuantos milímetros hasta varios kilómetros.

Las microondas son ondas de radio con longitudes de onda más cortas, entre I mm y 30 cm. Se utilizan en el radar y en los hornos de microondas.

Las ondas del infrarrojo de diferentes longitudes de onda son irradiadas por cuerpos a determinadas temperaturas. (Cuerpos a temperaturas más altas irradian bien ondas visibles, bien del ultravioleta).

La Tierra y su atmósfera irradian ondas del infrarrojo con longitudes de onda medías de unos 10 micrometros (u m) o I0″5 m (I u m = 10-6 m) a una temperatura media de 250K (-23°C).

Las ondas visibles tienen longitudes de onda de 400-700 nanómetros (nm) y  1 nm = 10 elevado a -9 m). El punto más alto de la radiación solar (con una temperatura de 6000K/6270°C) se alcanza a una longitud de onda de unos 550 nm, que es donde el ojo humano es más sensible.

Las ondas ultravioletas tienen longitudes de onda de entre unos 380 nm hasta 60 nm. La radiación de estrellas más bien calientes (más de 25.000K/25.000°C) se desvía hacia las zonas violetas y ultravioletas del espectro.

Los rayos X tienen longitudes de onda de aprox. 10 nm a 10 elevado a -4 nm.

Los rayos gamma tienen longitudes de onda menores a 10″‘1 m. Los emiten determinados núcleos radioactivos y se desprenden en algunas reacciones nucleares.

Nótese que los rayos cósmicos que continuamente bombardean la Tierra desde el espacio exterior no son ondas electromagnéticas, sino protones y partículas x (es decir, núcleos de átomos de hidrógeno y helio; de alta velocidad, además de algunos núcleos más pesados.

frecuencias y longitud de onda del espectro electromagneticoHaz Clic Para Otra Tabla

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

Electrólisis:Descomposición Del Agua en Oxígeno e Hidrógeno

LA  ELECTRÓLISIS  DEL AGUA: El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno.

Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos.

No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene.

Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—).

Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino.

Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad.

Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno.

En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la «Schmidt-Oerlikon» que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

Conceptos Básicos de Lubricantes
Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES: Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que» tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

Biografía de Evangelista Torricelli Fisico Presion Atmosferica

Biografía de Evangelista Torricelli
Físico Que Investigó Presión Atmosférica

Físico y matemático italiano que descubrió la forma de medir la presión atmosférica, para lo cual ideó el barómetro de mercurio. Por este invento pasó a la posteridad.

En 1644 publicó su obra Opera geométrica (Obra geométrica), donde expuso sus hallazgos sobre fenómenos de mecánica de fluidos y sobre el movimiento de proyectiles.

Fruto de sus observaciones, perfeccionó el microscopio y el telescopio. Asimismo, sus aportes a la geometría fueron determinantes en el desarrollo del cálculo integral.

BIOGRAFÍA TORRICELLI Evangelista (1608-1647)
Físico y matemático italiano nacido el 15 de octubre de 1608 en Faenza y fallecido enFlorencia el 25 de octubre de 1647. Sus padres fueron Gaspare Torricelli y Caterina Angetti.

Era una familia humilde, Gaspare era obrero textil. Evangelista fue el mayor de los tres hijos del matrimonio.

Sus padres notaron el talento de su hijo y como no tenían recursos para educarlo lo enviaron a estudiar con su tío, el Hermano Jacopo, un monje Camaldolese, al colegio Jesuita entre tos años 1624-1626 en Faenza.

Su tío observa el talento de Evangelistay arregla que estudie privadamente con otro monje Camatdolese, Benedetto Castetli, de quien se convierte en ayudante hasta 1632. Castelli enseñaba en la Universidad de Sapienza, en Roma.

Torricelli no fue alumno de esa universidad. Torricellireemplazaba a Castelti cuando estaba ausente de Roma.

El 11 de septiembre de 1632 Castelli escribió a Galileo una carta en la cual informa sobre los notables progresos científicos de Evangelista.

Galileo te contesta a Castelli, pero como éste no estaba en Roma, su secretario Torricelli aprovecha para contestar la carta y explicarle directamente a Galileo sobre sus trabajos matemáticos.

Durante los siguientes nueve años (1632-1641), fue secretario de Giovanni Ciampoli, amigo de Galileo y de otros profesores.

No se sabe exactamente donde vivió Torricelli durante estos años, pero como Ciampoli fue gobernador de muchas ciudades, debe haber vivido en distintos períodos en Montatto, Norcia, San Severino y Fabriano.

Para 1641 Torricelli había completado gran parte del trabajo que iba a publicar en tres partes en 1644, Opera geométrica.

La segunda parte del trabajo es el De motu gravium, que es un tratado sobre el movimiento parabólico de los proyectiles. Torricelli pidió opinión a Castelti sobre tratado en 1641.

Castelti estaba tan impresionado que él mismo te escribió a Gatileo, que vivía en Arcetri, cerca de Florencia, vigilado por la Inquisición.

En abril de 1641 Castelli fue de Roma a Venecia y de paso se detuvo en Arcetri para entregarte a Galileo una copia del manuscrito de Torricelli y le sugiere que lo contrate como asistente.

Mientras Castelli viajaba, Torricelli permanecía en Roma a cargo de sus clases. Galileo aceptó la propuesta de Castelli y el 10 de octubre de 1641, Torricelli llegó a La casa de Galileo en Arcetri.

Se convirtió así en su discípulo (1641).

Permaneció viviendo con Galileo durante su ceguera, cuidándolo hasta el día de su muerte en enero de 1642 y, un año más tarde, lo sucedió en el cargo de matemático de la corte del Gran Duque Fernando II de Toscana, pero no recibió el titulo de Filósofo de la Corte, que tenía Galileo.

Torricelli mantuvo este cargo hasta su muerte, viviendo en el palacio ducal en Florencia.

Otro discipulo de Castelli era Cavalieri, que era titular de la cátedra de Matemática en Bolonia. Torricelli estudió los métodos de Cavalieri y al principio desconfió de ellos. Pero pronto se convenció de su exactitud y comenzó a profundizarlos.

Uno de sus resultados más importante tiene que ver con la extensión del método de los indivisibles de Cavaliería los indivisibles curvo.

Para 1641 había probado un número impresionante de resultados usando el método que publicaría tres años después. Examinó los cuerpos tridimensionales que se obtienen al rotar un polígono regular alrededor de un eje de simetría.

También calculó el área y centro de gravedad de la cicloide.

El tema de La cicloide surgió de una disputa con Roberval.

En una carta fechada en octubre de 1643 le informa a Roberval sobre sus puntos de vista y resultados sobre el centro de gravedad de la parábola, la superficie de la cicloide y su historia, el sólido de revolución generado por una cónica y un sólido hiperbólico.

No hay duda que ambos matemáticos llegaron a descubrimientos similares sobre la cicloide pero que ninguno influyó sobre la ideas del otro.

Otra contribución de Torricelli fue en 1640, la resolución del problema de Fermat: dados tres puntos en un plano, encontrar un Cuarto punto tal que la suma de las distancias a los tres dados sea la menor posible (conocido como el centro isogónico del triángulo).

Torricelli fue la primera persona en crear un vacío sustentable. su nombre se asocia a la invención del barómetro de mercurio en 1644 para la medición de la presión atmosférica.

Este experimento, además de la importancia de sus aplicaciones prácticas, permitía demostrar la inconsistencia de las afirmaciones de los que aún seguían las teorías aristotélicas sobre la imposibilidad de la existencia de vacío, ya que por encima de la columna de mercurio de su barómetro se producía dicho vacío.

En De motu gravium también probó que la velocidad de salida de un liquido a través de un pequeño orificio en la pared delgada de un recipiente es proporcional a la raíz cuadrada de la altura entre el orificio y base del recipiente, enunciado conocido como el Teorema de Torricelli. Algunos lo consideran el fundador de la hidrodinámica.

En esta publicación estudia el movimiento de un proyectil, desarrolla las ideas de Galileo sobre la trayectoria parabólica de un proyectil lanzado horizontalmente y da una teoría sobre los proyectiles disparados en cualquier ángulo.

Por otra parte, construyó los mejores anteojos de la época y hasta ahora, las lentes preparadas por él, se destacan por su perfección.

También construyó telescopios, microscopios. Aparentemente aprendió estas técnicas mientras vivió con Galileo.

Torricelli ganó mucho dinero por sus habilidades en la construcción de lentes durante la última parte de su vida en Florencia y recibió muchos regalos del Gran Duque.

En 1647 Torricelli; contrajo fiebre tifoidea y murió a tos 39 años.

Torricelli, físico

«Yo afirmo que vivimos en un mar de aire»
El mérito de Torricelli fue haber sido el primero en medir el valor de la presión que
la atmósfera imprime a la superficie terrestre.

Por qué se lo recuerda
LA ACEPTACIÓN DEL VACIO
Demostró que los efectos atribuidos al «horror del vacío» se debían en realidad a la presión del airé. Inventó el barómetro de mercurio.

PREDICCIÓN DEL TIEMPO
Aunque Torricelli nunca lo supo, el descubrimiento del barómetro iba a ser muy importante para pronosticar el tiempo.

APARATOS DE ÓPTICA
Construyó telescopios superiores a los conocidos hasta entonces y otros aparatos de óptica. También desarrolló el teorema que lleva su nombre, acerca del movimiento de los fluidos.
Medición atmosférica

PARA SABER MAS…
La conquista del vacío .

Hasta el siglo XVII era imposible aceptar la idea de que el vacío era parte del espacio. Aristóteles había intentado sin éxito verificar el peso del aire y durante mucho tiempo el pensamiento imperante afirmaba que el vacío era, sobre todo, un concepto inconsistente. Sin embargo, el camino de la investigación y la experimentación, iniciado en gran medida por los descubrimientos de Galileo, Newton y Torricelli, cambió de manera radical el punto de vista de la ciencia.

Evangelista Torricelli, discípulo de Galileo, fue quien demostró que el aire es un fluido gaseoso que nos rodea, nos envuelve y nos presiona.

Su aporte fue muy importante ya que muchos fenómenos que ocurrían en la naturaleza hasta entonces extraños-eran derivados simplemente de la presión atmosférica.

¿Qué hizo Torricelli? Llenó un tubo con mercurio, lo invirtió y sumergió la parte abierta en un recipiente con más mercurio. El nivel de éste en el tubo descendió algunos centímetros, lo qué dio lugar en el extremo cerrado a un espacio sin mercurio, que no podía estar sino vacío.

Al principio muchos hombres de ciencia de la época se negaron a aceptar la teoría de Torricelli, verificada por el barómetro que él mismo había construido. Tuvo que transcurrir un tiempo para que la sociedad reconociera que por sobre la columna de mercurio operaba el propio peso de la atmósfera que rodea la Tierra.

Nuevos descubrimientos
Las experiencias de Torricelli fueron conocidas en Francia a través de su correspondencia con el religioso Marín Mersenne, quien a su vez estaba en contacto con otros investigadores que se sintieron entusiasmados a seguir explorando el fenómeno del espacio vacío.

Así fue como el físico Blaise Pascal (1623-1662), en Francia, reveló las variaciones de la presión atmosférica según las condiciones climáticas y la altura. A su vez Robert Boyle (1627-1691), en Inglaterra, llevó a cabo diversos estudios sobre la elasticidad del aire.

La carrera por perfeccionar los instrumentos que se usan para conocer el macro y microcosmos continúa hasta la actualidad. Hoy, al escuchar las noticias meteorológicas sabemos que las altas y bajas presiones sobre determinadas zonas del planeta tienen una influencia muy importante sobre el estado del tiempo y gran parte se la debemos a Torricelli, el físico italiano.

Fuente Consultada: Gran Atlas de la Ciencia National Geographic

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Descubrimiento de Nuevos Metales: Fosforo Cobalto y Niquel

HISTORIA DEL DESCUBRIMIENTO DE NUEVOS METALES EN EL SIGLO XVII

A pesar de todas estas trampas, la «era del flogisto» produjo algunos muy importantes descubrimientos. Un alquimista de aquel tiempo descubrió un nuevo elemento: el primer (y último) alquimista que, de una forma definida, identificó un elemento y explicó exactamente cuándo y cómo lo había encontrado. El hombre fue un alemán llamado Hennig Brand.

Algunas veces se le ha llamado el «último de los alquimistas», pero en realidad hubo muchos alquimistas después de él. Brand, al buscar la piedra filosofal para fabricar oro, de alguna forma se le ocurrió la extraña idea de que debía buscarla en la orina humana.

Recogió cierta cantidad de orina y la dejó reposar durante dos semanas. Luego la calentó hasta el punto de ebullición y quitó el agua, reduciéndolo todo a un residuo sólido. Mezcló tampoco de este sólido con arena, calentó la combinación fuertemente y recogió el vapor que salió de allí.

Cuando el vapor se enfrió, formó un sólido blanco y cerúleo. Y, asómbrense, aquella sustancia brillaba en la oscuridad. Lo que Brand había aislado era el fósforo, llamado así según una voz griega que significa «portador de luz».

Relumbra a causa de que se combina, espontáneamente, con el aire en una combustión muy lenta. Brand no comprendió sus propiedades, naturalmente, pero el aislamiento de un elemento (en 1669) resultó un descubrimiento espectacular y causó sensación. Otros se apresuraron a preparar aquella sustancia reluciente. El propio Boyle preparó un poco de fósforo sin conocer el precedente trabajo de Brand.

El siguiente elemento no fue descubierto hasta casi setenta años después. Los mineros del cobre en Alemania, de vez en cuando encontraban cierto mineral azul que no contenía cobre, como les ocurría, por lo general, a la mena azul del cobre.

Los mineros descubrieron que este mineral en particular les hacía enfermar a veces (pues contenía arsénico, según los químicos descubrieron más tarde). Los mineros, por tanto, le llamaron «cobalto», según el nombre de un malévolo espíritu de la tierra de las leyendas alemanas.

Los fabricantes de cristal encontraron un empleo para aquel mineral: confería al cristal un hermoso color azul y una industria bastante importante creció con aquel cristal azul. En la década de 1730, un médico sueco llamado Jorge Brandt empezó a interesarse por la química del mineral.

Lo calentó con carbón vegetal, de la forma comente que se usaba para extraer un metal de un mineral, y, finalmente, lo condujo a un metal que se comportaba como el hierro.

Era atraído por un imán: la primera sustancia diferente al hierro que se había encontrado que poseyera esta propiedad. Quedaba claro que no se trataba de hierro, puesto que no formaba  oxidación de tono pardo rojizo, como lo hacía el hierro.

Brandt decidió que debía de tratarse de un nuevo metal, que no se parecía a ninguno de los ya conocidos. Lo llamó cobalto y ha sido denominado así a partir de entonces. Por tanto, Brand había descubierto el fósforo y Brandt encontrado el cobalto (el parecido de los apellidos de los dos primeros descubridores de elementos es una pura coincidencia).

A diferencia de Brand, Brandt no era alquimista. En realidad, ayudó a destruir la Alquimia al disolver el oro con ácidos fuertes y luego recuperando el oro de la solución. Esto explicaba algunos de los, trucos que los falsos alquimistas habían empleado. Fue un discípulo de Brandt el que realizó el siguiente descubrimiento.

Axel Fredrik Cronstedt se hizo químico y también fue el primer mineralógolo moderno, puesto que fue el primero en clasificar minerales de acuerdo con los elementos que contenían. En 1751, Cronstedt examinó un mineral verde al que los mineros llamaban kupfernickel («el diablo del cobre»).

Calentó los residuos de este mineral junto con carbón vegetal, y también él consiguió un metal que era atraído por un imán, al igual que el hierro y el cobalto. Pero mientras el hierro formaba compuestos, pardos y el cobalto azules, este metal producía compuestos que eran verdes. Cronstedt decidió que se trataba de un nuevo metal y lo llamó níquel, para abreviar lo de kupfernickel.

Se produjeron algunas discusiones respecto de si el níquel y el cobalto eran elementos, o únicamente compuestos de hierro y arsénico. Pero este asunto quedó zanjado, en 1780, también por otro químico sueco, Torbern Olof Bergman.

Preparó níquel en una forma más pura que lo que había hecho Cronstedt, y adujo mi buen argumento para mostrar que el níquel y el cobalto no contenían arsénico y que eran, por lo contrario, unos nuevos elementos. Bergman constituyó una palanca poderosa en la nueva química y varios de sus alumnos continuaron el descubrimiento de nuevos elementos.

Uno de éstos fue Johan Gottlieb Gahn, que trabajó como minero en su juventud y que siguió interesado por los minerales durante toda su vida. Los químicos habían estado trabajando con un mineral llamado «manganeso», que convertía en violeta al cristal. («Manganeso» era una mala pronunciación de «magnesio», otro mineral con el que lo habían confundido algunos alquimistas.) Los químicos estaban seguros que el mineral violeta debía contener un nuevo metal, pero no fueron capaces de separarlo calentando el mineral con carbón vegetal.

Finalmente, Gahn encontró el truco, pulverizando el mineral con carbón de leña y calentándolo con aceite. Como es natural, este metal fue llamado manganeso. Otros discípulo de Bergman, Pedro Jacobo Hjelm, realizó mucho mejor este mismo truco con una mena a la que llamaron «molibdena».

Este nombre deriva de una voz griega que significa «plomo», porque los primeros químicos confundieron este material con mena de plomo. Hjelm extrajo del mismo un metal blanco argentado, el cual, ciertamente, no era plomo.

Este nuevo metal recibió el nombre de «molibdeno». El tercero de los discípulos de Bergman descubridores de elementos no fue sueco. Se trataba del español don Fausto de Elhúyar. Junto con su hermano mayor, José, estudió una mena pesada llamada «tungsteno» (palabra sueca que significa «piedra pesada»), o «volframio».

Calentando la mena con carbón vegetal, los hermanos, en 1783, aislaron un nuevo elemento al que, en la actualidad, según los países, se denomina tungsteno o volframio. Bergman tuvo todavía una conexión indirecta con otro nuevo metal.

En 1782, un mineralógolo austríaco, Franz Josef Müller, separó de una mena de oro un nuevo metal que tenía algún parecido con el antimonio. Envió una muestra a Bergman, como hacían los más importantes mineralógolos de su época. Bergman le aseguró que no era antimonio. En su momento, el nuevo metal recibió el nombre de telurio, de una voz latina que significaba «tierra». Mientras todos estos elementos hablan sido descubiertos en Europa, también iba a ser descubierto uno en el Nuevo Mundo.

En 1748, un oficial de Marina español llamado Antonio de Ulloa, cuando viajaba de Colombia a Perú en una expedición científica, encontró unas minas que producían unas pepitas de un metal blanquecino. Se parecía algo a la plata, pero era mucho más pesado.

El parecido con la plata (y tomando como base esta palabra española) hizo que se diese a este nuevo metal el nombre de platino. Al regresar a España, Ulloa se convirtió en un destacado científico y fundó el primer laboratorio en España dedicado a la Mineralogía.

También se hallaba interesado por la Historia Natural y por la Medicina. Además, acudió a Nueva Orleáns como representante del rey español, Carlos III, cuando España adquirió la Luisiana, que antes pertenecía a Francia, tras la Guerra India, en Estados Unidos.

Incluso los antiguos metales conocidos por los alquimistas tuvieron una nueva trayectoria en aquellos primeros tiempos de la Química moderna. En 1746, un químico alemán, Andreas Sigismund Marggraff, preparó cinc puro y describió cuidadosamente sus propiedades por primera vez; por tanto, se le ha atribuido el descubrimiento de este metal.

Probablemente, Marggraff es más conocido, sin embargo, por encontrar azúcar en la remolacha. Con un microscopio detectó pequeños cristales de azúcar en aquel vegetal, y, al mismo tiempo, proporcionó al mundo una nueva fuente de azúcar.

Marggraff fue el primero en emplear el microscopio en la investigación química. Lo que Marggraff había hecho con el cinc, lo realizó un químico francés, Claude-François Geoffrey, con el antiguo metal del bismuto. En 1753, aisló el metal y describió cuidadosamente su comportamiento, por lo que, algunas veces, se le ha atribuido el descubrimiento de este elemento.

LISTA DE ELEMENTOS QUÍMICOS DESCUBIERTOS EN EL SIGLO XVII: (Era del Flogisto)

Fósforo                             1669 Brand
Cobalto                             1735 Brandt
Platino                              1748 Ulloa
Níquel                               1751 Cronstedt
Hidrogeno                          1766 Cavendish
Nitrógeno                           1772 Rutherford
Oxígeno                             1774 Priestley
Cloro                                 1774 Scheele
Manganeso                         1774 Gahn
Molibdeno                           1781 Hjelm
Telurio                               1782 MüIIer Juan José de
Tungsteno                          1783 Elhúyar Fausto de Elhúyar

Fuente Consultada: En Busca de los Elementos de Isaac Asimov

USO DE LOS METALES EN LA INDUSTRIA

Aluminio Se usa desde hace pocas décadas y ocupa el tercer tugar detrás del hierro y el cobre. Utensilios, aleaciones livianas para aviación, cables eléctricos de alta tensión.
Antimonio: Endurece el plomo de los tipos de imprenta, productos medicinales. Ignífugos. Se dilata al enfriar.
Arsénico Insecticidas, productos medicinales, industria química.
Berilio Pigmentos, cristales, fuegos artificiales. Berilio Único metal liviano con alto punto de fusión, ventana para rayos X, industrias atómicas, aleaciones con cobre, resistentes a vibraciones externas.
Bismuto Aleaciones de muy bajo punto de fusión (37°C); productos farmacéuticos.
Boro Ácido bórico. Endurecimiento del acero.
Cadmio Endurecimiento de los conductores de cobre. Aleaciones de bajo punto de fusión. Galvanoplastia.
Calcio Materiales de1 construcción, sales diversas.
Cesio Materiales refractarios livianos, semiconductores, aleaciones duras y refractarias. Cesio Células fotoeléctricas.
Cinc Galvanoplastia,- pilas.
Circonio Usos atómicos, aceros, lámparas-flash.
Cobalto Piezas de cohetes y satélites, herramientas para altas temperaturas, radioisótopos.
Cobre Conductores eléctricos, bronces diversos.
Columbio Sólo en laboratorio. Duro y pesado.
Cromo Acero inoxidable, galvanoplastia. Estaño Envoltorios, soldaduras, bronces.
Estroncio Fuegos artificiales, refinerías de azúcar.
Galio Termómetros para alta temperatura (funde antes de los 35° y hierve a más de 1.900°C.
Germanio Transistores, válvulas termoiónicas.
Hafnio Filamentos de tungsteno.
Hierro Acero, construcción. El metal por excelencia.
Indio Galvanoplastia, aleaciones resistentes a los esfuerzos y la corrosión. –
Litio Aleaciones ligeras, pilas atómicas, síntesis orgánica.
Magnesio Aleaciones ligeras, productos medicinales, síntesis orgánicas.
Manganeso Aceros especiales (extrae el oxígeno y el azufre de la mezcla, dando un metal limpio y sólido). Usos químicos y eléctricos.
Mercurio Termómetros, barómetros, aleaciones dentarias (amalgamas).
Molibdeno Aceros especiales.
Níquel Bronces blancos, monedas, revestimientos de metales.
Oro Alhajas, monedas, espejos telescópicos.
Osmio Metal pesado para aleaciones de la familia del platino.
Paladio Aleaciones con el platino, aceros, catálisis química.
Plata Espejos, alhajas, bronces.
Platino Catálisis, contactos eléctricos, alhajas.
Plomo Aleaciones para soldaduras, cañerías, pinturas.
Plutonio Radiactivo, bomba atómica.
Polonia Radiactivo, compuestos luminosos.
Potasio Metal alcalino, fertilizantes.
Radio Radiactivo, medicina, pinturas luminosas.
Renio Pares termoeléctricos, sustituto del cromo en los aceros.
Rodio Aleaciones, cátodos, pares termoeléctricos.
Rubidio Productos medicinales.
Selenio Células fotoeléctricas, baterías solares.
Silicio Vidrio, aleaciones duras y refractarias.
Sodio Jabones, sal de mesa, bicarbonato de sodio.
Talio Compuestos químicos venenosos, insecticidas, raticidas
Tántalo Filamentos para lámparas, aleaciones refractarias.
Tecnecio Primer elemento producido por él hombre.
Teluro Semiconductores, fotopilas, aleaciones diversas.
Titanio Pigmentos, compuestos muy refractarios, aceros especiales.
Torio Radiactivo, aleaciones.
Tungsteno Filamentos para lámparas, herramientas duras.
Uranio Radiactivo, pilas atómicas.
Vanadio: Aceros Especiales

AMPLIACIÓN DEL TEMA
ALGUNAS GENERALIDADES SOBRE EL FÓSFORO:

Fue descubierto por Brandt en 1669 mientras buscaba la piedra filosofal cuyo objeto era transformar cualquier sustancia en oro. Obtuvo fosfato a partir de la orina, luego de un proceso laborioso. Pero el primer trabajo publicado con cierto fundamento científico pertenece a D. Krafft. El fósforo, como elemento, fue reconocido por Lavoisier en 1777.

El fósforo no se encuentra libre en la naturaleza, pero sí combinado en forma de compuestos inorgánicos como la fosforita (fosfato de calcio) y la fluorapatíta (fluofosfato de calcio).

El fósforo es el principal constituyente de los huesos y dientes; además se encuentra formando parte de los tejidos animales y vegetales y constituye parte de las fosfoproteínas y otros compuestos orgánicos.

La sangre, la yema de huevo, la leche, los nervios y el cerebro contienen fósforo en forma de lecitinas. Por esta razón, los animales y las plantas necesitan fósforo para desarrollarse.
Una parte del fósforo contenido en el organismo se elimina diariamente por la orina y los excrementos, en la proporción de 2 gramos cada 24 horas.

El uso más común del fósforo consiste en la fabricación de cerillas, las cuales son de dos tipos: comunes y de seguridad. Las primeras encienden por frotamiento sobre cualquier superficie áspera y se componen de un pabilo de algodón, madera o cartón, cuya extremidad está recubierta por una sustancia combustible compuesta con fósforo o sulfuro de fósforo, como sustancia inflamable, bióxido de plomo o clorato de potasio, como materia oxidante, dextrina y una sustancia colorante.

Los fósforos de seguridad, llamados también cerillas suecas, sólo contienen una mezcla oxidante, sin fósforo. Este último elemento se coloca sobre la superficie del raspador de la caja, de modo que para producir la llama es imprescindible que ambas partes se pongan en contacto. La mezcla con que se recubre el palillo contiene clorato de potasio como sustancia oxidante, trisulfuro de antimonio, cofa y algo de creta para aumentar la masa. La superficie del raspador contiene fósforo rojo, trisulfuro de diantimonio y vidrio para aumentar la aspereza.

Los abonos fosfatados son muy útiles en la agricultura. Se trata de una serie de sustancias naturales o artificiales que se agregan a las tierras agotadas para reponer en ellas las sustancias desaparecidas. Generalmente esas tierras han perdido (por excesivo cultivo o por acarreos), algunos de los elementos químicos indispensables, como el nitrógeno, fósforo, potasio o calcio, lo que las imposibilita para la plantación o la siembra.

Uno de los abonos más importantes por su riqueza en fósforo y calcio, es el fosfato neutro de calcio. Lamentablemente el fosfato tricoideo (como los huesos) no puede utilizarse porque es prácticamente insolubfe y entonces las plantas no pueden asimilarlo. Debe por lo tanto tratarse con ácido sulfúrico para convertirlo en difosfato monocálcico soluble.

Los huesos molidos (fosfato tricálcico), tratados con ácido sulfúrico, se tornan en sustancias solubles, es decir en fosfatos y sulfatos. Mezclados constituyen el abono denominado superfosfato de calcio.

En los laboratorios de las cátedras de química, durante las lecciones acerca del fósforo, se realizan importantes experimentos. El profesor muestra un trozo de fósforo rojo y otro blanco y hace notar sus diferencias de color, consistencia, solubilidad en sulfuro de carbono, fusibilidad, etc. Para esta última propiedad, se corta debajo del agua con un cortaplumas, un pedazo de fósforo blanco y otro de fósforo rojo. Sometidos ambos a la temperatura de 55°C, el fósforo blanco funde, en tanto que el rojo permanece inalterable.

Para demostrar la oxidación del fósforo en presencia del aire, se disuelve un trozo de fósforo blanco en sulfuro de carbono, se impregnan papeles con esta solución y se dejan secar sobre un trípode; evaporado el solvente, el fósforo se inflamará y con él, los papeles.

La oxidación en presencia del oxígeno: se echa un trozo dé fósforo en agua y se funde al baño de María; se hace circular una corriente de aire y se comprobará la inflamación.

La fosforescencia del fósforo se comprueba de la siguiente manera: se toma un matraz de un litro, se llena con agua hasta la mitad, y se coloca en su interior un trozo de fósforo blanco. Se lleva el agua a ebullición, se oscurece el cuarto y se observará, especialmente en el cuello del matraz, el fenómeno de la fosforescencia.

La diferencia de inflamabilidad entre el fósforo blanco y el rojo se comprueba como sigue: sobre una chapa de cobre de 30 centímetros de largo, dispuesta sobre un trípode, se coloca en cada extremo un trocito de fósforo blanco y rojo, respectivamente; se calienta el centro de la chapa con llama baja de un mechero Bunsen y se podrá observar la inflamación casi espontánea del primero y tardía en el segundo. Para comprobar la acción del cloro sobre el fósforo, se introduce en un frasco lleno de cloro una capsulita que contenga un trozo de fósforo blanco; se observa la inflamación espontánea del fósforo.

Los envenenamientos por el fósforo blanco, constituyen un riesgo para los obreros que trabajan en las fábricas que preparan el producto y de los que lo manejan y transforman.

Las fábricas de cerillas deben estar .muy bien ventiladas, pues las emanaciones fosforadas que, sin esa precaución, podrían aspirarse, intoxicarían más o menos a los operarios. Éstos deben cuidar mucho de la higiene, no comer sin lavarse bien las manos y cambiarse las ropas de trabajo. Será preciso que no dejen su comida dentro del local de la fábrica y a la hora del almuerzo buscarán en el exterior un lugar aireado.
Una dolencia muy común en los que trabajan con el fósforo, es la denominada necrosis fosfórica, que ataca al hueso dé la mandíbula y que suele necesitar operación quirúrgica.

Cuando sobrevienen envenenamientos por ingestión de fósforo, mientras llega el médico, puede administrarse una solución de 2 gramos de sulfato de cobre en un litro de agua, con frecuencia y abundancia, pues el cobre se depositará sobre las partículas de fósforo haciéndolo inofensivo o debilitando considerablemente su acción. Suprímase en absoluto la leche, los aceites y las grasas.

La fosfamina, que es un fósforo gaseoso, se prepara como sigue: en un baloncito de unos 300 ce. se ponen 20 ce. de potasa cáustica en solución acuosa concentrada y seis u ocho blobuliílos de fósforo; se cierra el baloncito con un tapón bihoradado que trae dos tubos acodados, uno estrecho que se sumerge en la potasa y otro ancho y largo (de desprendimiento), cuyo extremo anterior está doblado en U y el interior termina junto al tapón. Se hace pasar una corriente de hidrógeno y el tubo ancho se sumerge en un recipiente con agua caliente. Se calienta el baloncito hasta una ebullición moderada. Se desprende fosfamina.

Grande es la importancia que tiene en todo el universo la fabricación del fósforo, no tan sólo aplicable a la preparación de cerillas, abonos, etc., sino también como agente reductor.

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. «Y entonces Gauss, ¿qué?», preguntó el asombrado von Humboldt. «Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.»

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo «Halla la suma de los 100 primeros números enteros».

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por «malgastar»su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al «análisis situs» y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte «shock». Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra «Disquisitiones Arithmeticae», obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del «nuevo planeta», llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton, Obra Cientifica –

El rol de las manzanas en la elaboración de la Teoría de La gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

Uno de los mayores avances de la historia de la ciencia fue la comprensión por Isaac Newton de que las leyes de la gravedad son aplicables a la Luna y otros cuerpos celestes igual que a los objetos cercanos a la superficie terrestre.

Animado por Edmond Halley y Robert Hooke, finalmente creó las fórmulas matemáticas y las consignó en sus Principia, el libro científico más importante publicado jamás.

Newton y la Ley de Inercia y GRavedad

Newton reflexionó mucho y llegó a concebir ideas, que cambiaron completamente el concepto humano acerca del Universo. He aquí su modo de razonar:
«La manzana cae por la atracción de la Tierra», (esta no era una idea nueva). Quizás la manzana también atrae a la Tierra, (esta sí era una idea nueva). Puede ser que las manzanas se atraen entre sí. Es posible que todos los cuerpos se atraen entre sí, (aquí estaba llegando Newton más lejos que las ideas científicas de entonces, dando de inmediato el gran paso). Tal vez la fuerza de atracción gravitacional entre varios objetos actúa incluso a muy grandes distancias; así, la Tierra y la Luna se atraen mutuamente, igual que el Sol y los planetas y, posiblemente, que el Sol y las estrellas.

Al parecer, Newton tuvo los primeros atisbos de una idea sobre la gravitación universal en 1665-1666, su época creativa más fructífera.

Muchos años después afirmó que el concepto de gravedad aplicable por igual a los objetos que se encuentran sobre la Tierra y a las estrellas y planetas le fue inspirado por la visión de una manzana que caía de un árbol.

Según William Stukeley, biógrafo de Newton, estaban almorzando juntos en Kensington el 15 de abril de 1726 y «el día era caluroso, salimos al jardín y bebimos té a la sombra de unos manzanos, a solas. En medio de aquella conversación, me confesó que estaba justamente en la misma situación cuando tiempo atrás le vino a la mente la idea de la gravitación».

Newton le refirió que vio caer una manzana y se preguntó: «¿Por qué la manzana cae siempre perpendicular al suelo? ¿Por qué no lo hace de lado, o hacia arriba? Sin duda, la razón es que la tierra la atrae; debe existir un poder de atracción en la materia, y la suma del poder de atracción en la materia de la tierra debe estar en su centro».

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton se preguntó acerca de la extensión de la atracción de la gravedad; evidentemente, llegaba desde el centro de la Tierra hasta la copa del manzano, pero ¿podría llegar hasta la Luna?.

Si así fuera, seguramente afectaría a su órbita. De hecho, ¿podría controlar la órbita de la Luna?.

Hizo algunos cálculos y «parecían responder bastante aproximadamente».

Esta teoría destronó la noción aristotélica de que los cuerpos celestes eran muy diferentes de la Tierra y sin conexión con ella. También negaba las teorías del filósofo y matemático Rene Descartes, según las cuales estrellas y planetas giraban en vórtices.

Fue una idea revolucionaria, pero el hecho de que, se le ocurriera en 1665-1666 en un destello de genialidad es discutible; al parecer no mencionó el episodio de la manzana hasta 1726, sesenta años después de suceso.

La teoría pudo ser resultado de años de trabajo, y probablemente debía tanto a su síntesis de la obra de otros grandes científicos –Copérnico, Kepler, Galileo y Hooke– como a su propio genio natural.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco.

Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos.

Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado «natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra.

La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos.

La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna.

¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula.

Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol.

Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos.

Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea.

En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol.

Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento.

Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB).

En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B.

Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo).

Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable.

Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna).

Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción.

Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla.

Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto.

En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima.

Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad «de escape», muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y «desviarla» de alguna manera.

• Los animales sometidos a una «gravedad» elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que «cae» como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Teorias Fisicas Que Fracasaron Errores de la Fisica Erroneas

Teorias Fisicas Que Fracasaron Errores de la Física Erroneas

menu

1-Teoría Geocéntrica del Sistema Solar

2-Teoría de Aristóteles Sobre Los Cuatro Elementos de la Materia

3-Teoría de la Cuatro Humores

4-Teoría del Flogisto

5-Teoría del Eter

6-Teoría de la Caída de los Cuerpos

7-Teoría de la Generación Espontánea

8-Teoría de la Homunculo

PRIMERAS TEORÍAS FALSAS: Platón reconocía que el peso de los cuerpos no es más que el efecto de una fuerza que se ejerce sobre ellos de arriba a abajo, lo que equivale a una forma peculiar de concebir la gravedad.

El autor del Timeo conoce también la capilaridad y refiere algunos experimentos realizados sobre este particular. En cinemática, distingue el movimiento progresivo y el movimiento rotativo, reconoce la ley de conservación del plano de rotación en el movimiento de la peonza, apuntando así hacia la invención del giróscopo.

Hay que insistir también en el hecho de que Platón recomienda repetidas veces la investigación experimental a la que concede una gran importancia.La física de Aristótelesde Estagira (384-322) supone, por el contrario, una regresión bastante perjudicial en el terreno científico.

El Estagirita rechaza formalmente el atomismo y sustituye la explicación cuantitativa de las cosas por una explicación cualitativa particularmente infantil.

Mal matemático, pretende no querer fiarse más que de los datos de los sentidos. y como para él el tacto es el más fundamental de todos, hace dimanar todas las cosas complejas de una simple superposición de lo cálido, de lo frío, de lo seco y de lo húmedo a una hipotética materia prima sin atributo ni cualidad, lo que inevitablemente nos hace pensar en el famoso «cuchillo sin hoja al que le falta el mango» de que habla Rabelais.

Para Aristóteles hay cuerpos pesados y cuerpos ligeros: los primeros tienden hacia abajo y los segundos hacia arriba. Ya no hay ni fuerza centrífuga ni fuerza centrípeta, sino simplemente cualidades contrarias.

Además, Aristóteles ha prestado un lamentable servicio a la física con su introducción de la quintaesencia y del éter que de aquí en adelante encontraremos como punto de partida de buen número de teorías, incluso en nuestros mismos días.

Añadamos que la virtud de la quintaesencia es la de estar animada de un movimiento rotativo que contrasta con los movimientos ascendentes y descendentes de los cuerpos ligeros o pesados y tendremos una idea de toda la cinemática de Aristóteles.

El movimiento, según el Estagirita. se explica metafísicamente mediante el paso de la potencia al acto, concepto cuya claridad no es precisamente deslumbrante. Como contrapartida, la mecánica aristotélica admite, lo mismo que la de Pitágoras y la de Platón, que sólo el contacto puede explicar las acciones de unos cuerpos sobre otros.

Quizá conozca el lector la extraña balística de Aristóteles según la cual toda trayectoria se divide en tres partes. En la primera aparece el movimiento forzado, en la segunda el movimiento mixto y en la tercera el movimiento natural, lo que produce una curva ascendente, una parte mixta horizontal y una curva descendente. Hubo que esperar hasta 1537 después de Jesucristo para ver esta teoría contraria a toda observación refutada por Tartaglia.

La física de Aristóteles perjudicó a la ciencia en el curso de la Edad Media cuando sus conceptos fueron asimilados e impuestos a todo el mundo cristiano por Santo Tomás de Aquino.

Durante los doscientos cincuenta años que siguieron a su muerte, Aristóteles fue ignorado por los grandes físicos del mundo antiguo:Arquímedes. Ctesibios y Herón de Alejandría.

En efecto, estos tres genios fueron más hombres prácticos que soñadores, y puede decirse que el primero y mayor de todos ellos ha consagrado definitivamente la ruptura entre la metafísica y la física.

 

Biografía Fibonacci Leonardo de Pisa La Serie de Fibonacci

Biografía Fibonacci Leonardo de Pisa
Aporte a la Matemática – La Serie de Fibonacci

Se presenta a continuación, por orden cronológico, a los matemáticos más destacados en el Edad Media.

Leonardo de Pisa (Fibonaccí) (1170-1250)

Jordano Nemorarius (1225 – 1260)

Nicole Oresmes (1323 – 1382)

En este post se tratará sobre la vida y obra de Fibonacci

Fibonacci – Leonardo de PISA
(FIBBONACI )(1170-1250)

Leonardo de PISA Matemático autodidacta italiano, nacido en Pisa en 1170, cuyo verdadero nombre era Leonardo de Pisa. Pero más conocido fue por el nombre de Fibonacci (nombre que proviene de la abreviatura de filiuis Bonacci, que significa hijo de Bonacci).

Falleció también en Pisa en 1250.

Fue el matemático más importante de la Edad Media.

El padre de Fibonacci, Guilielmo, miembro de la familia Bonacci, era un importante mercader. Era el representante de los mercaderes de la República de Pisa en los negocios con Argelia.

Esto le permitió viajar mucho, especialmente por el norte de Africa, donde pasó largos periodos de tiempo. Se trasladó allí a los 20 años y es donde aprendió Matemática.

Regresó de sus viajes a Pisa en 1200, donde tuvo buenas oportunidades para recopilar las matemáticas grecorromanas, árabes e hindúes, conocimientos que luego divulgó.

Su principal obra la publicó en 1202 y es Liber Abací (el Libro del ábaco), en el que se encuentran expuestos: el cálculo de números según el sistema de numeración posicional; operaciones con fracciones comunes, aplicaciones y cálculos comerciales como la regla de tres simple y compuesta.

La división proporcional, problemas sobre la determinación de calidad de las monedas; problemas de progresiones y ecuaciones; raíces cuadradas y cúbicas. En él se recomienda de manera contundente el uso de los números hindú-arábigos, los cuales introduce en Europa.

De esta manera empieza a utilizarse el sistema para el cálculo, antes se usaba el ábaco.

(Pisa, ciudad de Italia central, capital de la provincia del mismo nombre, en la región de La Toscana, a orillas del río Amo, próximo al mar de Liguria.)

Sus trabajos sobre matemática recreativa se presentaba como historias, que se transformaron en desafíos mentales en el siglo XIII. Dichos problemas involucraban la suma de sucesiones recurrentes, como el problema de las parejas de conejos, que aparece publicado en la tercera sección de este Libro.

Dicho problema da origen a la famosa sucesión de Fibonacci (1, 2, 3, 5, 8, 13,…), que él descubrió.

El problema es el siguiente:

Un hombre puso una pareja de conejos en un lugar cerrado. ¿Cuántos pares de conejos se pueden generar a partir de ese par en un año si se supone que una vez por mes, a partir del segundo mes de su vida, cada pareja da origen a otra nueva?.

 1+1=25+8=13 
         1+2=3         8+13=21 
                2+3=5                 13+21=34 
                      3+5=8                           21+34=55 

Cada término de la sucesión se denomina número de Fibonacci (se obtiene sumando los dos números precedentes en la sucesión).

Veamos la resolución del problema:

La primera pareja tiene descendencia el primer mes, así que en este mes ya hay 2 parejas. La primera pareja vuelve a tener descendencia el segundo mes, con Lo que ya

tendríamos 3 parejas. Al mes siguiente procrean la primera pareja y la que nació en primer mes (pues ya tienen dos

meses de vida), habiendo entonces 5 parejas. El cuarto mes procrea, además de esas dos, la que nació el segundo mes, es decir, nacen

tres parejas más, ya tenemos 8 parejas. Podemos seguir haciendo cuentas y obtenemos la siguiente tabla con las parejas que hay cada mes del año:

Meses123456789101112
Parejas23581321345589144233377

La respuesta al problema es, por lo tanto, 377 parejas.

Hay muchos lugares en la naturaleza donde sorprendentemente aparece esta sucesión en forma curiosa. Si uno toma ciertas plantas y comienza a partir de la base del tallo a contar las hojas, verá que al llegar a una hoja que está directamente sobre la hoja donde se comenzó el conteo, habrá Llegado a un número de Fíbonacci. Lo mismo ocurre con una planta de lechuga o cebollas.

Las escamas de una piña aparecen en espiral alrededor del vértice. Si contamos el número de espirales de una piña, encontraremos que siempre es igual a uno de los números de la sucesión  de Fibonacci.

Los números de Fibonacci verifican, entre otras, las siguientes propiedades matemáticas:

a) todo número positivo se puede expresar como suma de números de Fíbonacci no consecutivos.

b) dos números consecutivos de Fibonacci son primos entre si.

c) hay solo dos cuadrados perfectos, el 1 y el 144 y dos cubos perfectos, el 1 y el 8.

Muchos otros problemas se dan en esta tercera sección, por ejemplo:

Una araña sube, por una pared, durante el día, un determinado número de cms. y baja, durante (a noche, otro determinado número de cms. ¿Cuántos días le lleva subir la pared?.

Un perro de caza, cuya velocidad se incremento aritméticamente, persigue a una liebre, cuya velocidad también se incremento aritméticamente. ¿Cuánto recorren hasta que el perro alcanza a (a liebre?.

También hay problemas referidos a los números perfectos, y problemas que involucran a series aritméticas y geométricas.

Vivió antes de la aparición de la imprenta, por lo que sus libros fueron escritos a mano, y la única forma de tener una copia era haciendo otra copia a mano.

Otra de sus publicaciones fue Practica Geometriae (Prácticas de Geometría) en 1220, que consta de 8 capítulos, dedicada a resolver problemas geométricos y trigonométricos, especialmente medida de áreas de polígonos y volúmenes de cuerpos.

En 1225 publica Flos, donde da una exacta aproximación de la solución de 10x + 2x2 + = 20. Este problema lo toma del libro de Álgebra de Omar Khayyam, quién lo resuelve como intersección entre un círculo y una hipérbola. Fibonacci prueba que la solución no es ni un número entero, ni una fracción ni la raíz cuadrada de una fracción. Por eso dice que lo resuelve con una aproximación, pero no indica el método que usó. La solución la da en base 60, que convertida al sistema decimal es 1,3688081075. Esta solución tiene 9 decimales exactos.

En el mismo año escribe Líber Quadratorum, que es un libro sobre Teoría de números. Plantea que los cuadrados se pueden expresar como suma de números impares usando la fórmula:n2 + (2n+1 )= =(n+1)2 .

 También se ocupa de los tripletas pitagóricas que obtiene de la siguiente forma:

Cuando quiero obtener dos cuadrados cuya suma de otro cuadrado tomo cualquier número cuadrado impar como uno de los dos números cuadrados y busco el otro cuadrado sumando todos los números impares entre el 1 y el número cuadrado impar elegido, excluido éste.

Por ejemplo, elijo el 9 como uno de tos cuadrados mencionados, el otro cuadrado lo obtengo sumando los números impares desde 1 hasta 9 excluido, es decir, 1+3+5+7=16. Así 9+16=25.

Su libro sobre aritmética comercial Di minor guisa se perdió, lo mismo que su comentario sobre el libro X de Los Elementos de Euclides, que contenía un tratamiento de los números irracionales, que Euclides había abordado desde el punto de vista geométrico.

Después de explicar los procesos algorítmicos o aritméticos usuales, incluida la extracción de raíces, pone todo el énfasis en problemas de transacciones comerciales, utilizando un complicado sistema fraccionario.

La República de Pisa le asigna un salario anual en 1240 debido a sus contribuciones a la enseñanza de sus ciudadanos y los aportes a la contabilidad.

https://historiaybiografias.com/linea_divisoria5.jpg

AMPLIACIÓN SOBRE LA SERIE DE FIBONACCI

LA SERIE DE FIBONACCI: En matemáticas, la secuencia de Fibonacci es una serie de números enteros que fue descrita por primera vez en Europa por Leonardo de Pisa, también conocido como Fibonacci.

Fibonacci, Matematico Medievla, creador de la serieEn el suelo del lugar donde se encuentra el cuerpo de Jacques Sauniére al comienzo del libro hay escritos algunos números. Sophie, su nieta, reconoce la secuencia numérica y la interpreta como una señal de su abuelo, aunque lleva su tiempo que emerja su completa significación.

Una vez que ella tiene la llave de la caja de depósitos del banco y comprende que necesita un número de cuenta para tener acceso a ella, las cifras se ordenan ascendentemente para darle la solución.

La secuencia de Fibonacci es una secuencia infinita de número que comienza por: 1, 1, 2, 3, 5,8,13…, en la que cada uno de ellos es la suma de los dos anteriores.

Así: 2=1+1, 3=2+1, 5=3+2, 13=8+5 . Para cualquier valor mayor que 3 contenido en la secuencia, la proporción entre cualesquiera dos números consecutivos es 1,618, o Sección Áurea.

La secuencia de Fibonacci se puede encontrar en la naturaleza, en la que la flor del girasol, por ejemplo, tiene veintiuna espirales que van en una dirección y treinta y cuatro que van en la otra; ambos son números consecutivos de Fibonacci.

La parte externa de una piña piñonera tiene espirales que van en sentido de las manecillas del reloj y otras que lo hacen en sentido contrario, y la proporción entre el número de unas y otras espirales tiene valores secuenciales de Fibonacci.

En las elegantes curvas de una concha de nautilus, cada nueva circunvolución completa cumplirá una proporción de 1: 1,618, si se compara con la distancia desde el centro de la espiral precedente.

Leonardo Fihonacci nació en Pisa. Italia, en 1170. Creció y fue educado en Bugia, norte de África (hoy llamada Bejaia, en Argelia), desde donde regresó a Pisa alrededor del año 1200. Fihonacci fue sin duda influido y posiblemente enseñado por matemáticos árabes durante este su periodo más formativo.

Escribió muchos textos matemáticos e hizo algunos descubrimientos matemáticos significativos, lo que ayudó a que sus trabajos fueran muy populares en Italia y a que le prestara atención el Sacro Emperador Romano del momento  Federico II. quien lo invito a su corte de Pisa. Fibonacci murió en 1250.

Modelo Atómico de Bohr Niels Resumen de su Biografia y Trabajo

Modelo Atómico de Bohr
Resumen de su Biografía y Trabajo Científico

Bohr Niels

El nombre de Niels Bohr (1885-1962) se inscribe como uno de los nombres más ilustres de la física del siglo XX. En líneas generales, tuvo la idea de aplicar la teoría de los quanta de Planck al modelo atómico de Rutherford, consiguiendo, de este modo, explicar la emisión de rayos espectrales y, al mismo tiempo, interpretar muchas propiedades físicas y químicas de los cuerpos.

En el tercer congreso de Física Solvay, que tuvo lugar en Bruselas el año 1921, a Rutherford se le preguntó qué diferencia existía, en su modelo atómico, entre los electrones nucleares y los periféricos. Rutherford respondió con aquella frase que tanta popularidad alcanzó: «No man’s land.», que significa «tierra de nadie«.

Es decir, trató de sintetizar el concepto que había guiado a su escuela hasta el año 1911: el átomo está dividido en dos regiones, la interna y la externa, el núcleo y el sistema electrónico, separadas por una barrera infranqueable, en el sentido de que ni los electrones periféricos pasan al núcleo ni los constituyentes del núcleo pasan al sistema electrónico.

El mérito de Rutherford fue el de haber intuido que los fenómenos radioactivos tienen su sede en el núcleo, y que dedicándose al estudio de esta ciencia hizo desviar los problemas inherentes al sistema electrónico hasta la crítica fundamental que había expuesto. Ciertamente, el modelo de Rutherford está en contradicción con el electromagnetismo clásico, sobre cuyos pormenores no se entrará.

Sencillamente se remarcará, con el objeto de centrar el problema histórico que limita la biografía de Niels Bohr, que cuando Rotherford estaba sumido en dicha problemática, el entonces joven investigador Bohr pasó al laboratorio de este otro físico inglés.

EL FENÓMENO FÍSICO: Cuando un cuerpo sólido se calienta suficientemente, se pone incandescente, es decir, emite luz. Lo mismo sucedería si calentásemos gases o vapores, o si excitásemos sus moléculas con una descarga eléctrica.

Entre la luz emitida en uno u otro caso, existe, sin embargo, una importante diferencia. Si hacemos que la luz emitida atraviese un prisma, o una red de difracción, se obtiene su espectro, o conjunto de rayas o bandas de los distintos colores que componen la luz incidente.

El espectro de la luz (imagen abajo) que emiten los sólidos incandescentes es continuo y presenta bandas de diferentes colores que se funden unos con otros. Los gases y vapores dan lugar a un espectro que presenta líneas o bandas discretas.

espectro luz atomo

Un elemento dado presenta siempre un mismo espectro, lo que constituye un valioso método para su identificación. Por ejemplo, al excitar el hidrógeno contenido en un tubo de descarga, se obtiene su bien conocido espectro de líneas. Con el fin de explicar este espectro del hidrógeno. Niels Bohr propuso su modelo atómico, que se utiliza todavía, aunque con algunas modificaciones, para describir los fenómenos atómicos básicos.

Niels Henrik David Bohr nació en octubre de 1885. Su padre era profesor de fisiología en la Universidad de Copenhague.

En 1903, ingresó Bohr en dicha Universidad, y, ocho años después, salía de ella con el título de doctor y un enorme interés por los problemas teóricos relativos al átomo. Bohr es un sabio de nuestro tiempo.

Murió el 18 de noviembre de 1962. Desde muy joven hasta los últimos días de su existencia, Niels Bohr mostró un enorme interés y una incansable actividad en la solución de los problemas más importantes de la física moderna.

En 1911, Bohr llegó a Inglaterra para trabajar en el laboratorio Cavendish de Cambridge, bajo la dirección de J. J. Thomson. Por entonces, los físicos que trabajaban en aquel laboratorio concebían el átomo, de acuerdo con otros muchos físicos del mundo, como una esfera cargada positivamente, que contenía los electrones (cargas eléctricas negativas), los cuales se movían dentro de la esfera, y en número tai que el átomo quedaba eléctricamente neutro.

Al cabo de pocos meses, Bohr se trasladó a Manchester, en donde Rutherford, uno de los mejores físicos del momento, era profesor de física. Rutherford había demostrado, experimentalmente, que el átomo tenía un núcleo pesado de pequeño volumen y cargado positivamente, el cual estaba rodeado por los electrones. Pero las características de los espectros atómicos no podían ser explicadas sobre la base del átomo de Rutherford.

 Cuando Bohr regresó a Copenhague después de haber trabajado con J. J. Thomsom, el descubridor del electrón, en el Laboratorio Cavendish de la Universidad de Cambridge, Inglaterra, como discípulo y colaborador de Rutherford, ya estaba convencido de que las teorías clásicas de la física no eran capaces de representar adecuadamente los movimientos orbitales de los electrones. Bohr combinó el núcleo de Rutherford y la teoría de los quanta de Plank y produjo la primera imagen matemática satisfactoria de la estructura del átomo, su teoría cuántica de las partículas fundamentales y de sus interacciones.

De acuerdo con su modelo, los electrones giraban alrededor del núcleo, cargado positivamente, y la atracción electrostática compensaba la fuerza centrífuga. La teoría electromagnética clásica exigía, sin embargo, que toda carga eléctrica acelerada debería emitir radiación continua.

Si esta radiación continua tuviese lugar, los electrones, entonces, describirían una espiral descendente y caerían al núcleo. El átomo de Rutherford era, por tanto, inestable, de acuerdo con los principios de la mecánica clásica.

Por otro lado, la emisión espontánea que predecían las leyes de la teoría electromagnética no tenía, de hecho, lugar. Bohr se dedicó a plantear y estudiar los problemas teóricos que el átomo de Rutherford llevaba consigo, con el objeto de proponer un modelo atómico que se ajustase a los hechos experimentales conocidos entonces, y, particularmente, a la evidencia que con el empleo del espectroscopio se había acumulado empíricamente, analizando los espectros de elementos conocidos.

SU MODELO ATÓMICO PROPUESTO:

La teoría de Bohr puede resumirse en los dos puntos siguientes:

1) Los electrones sólo pueden ocupar ciertas capas en órbitas, dentro del átomo. A los electrones de una determinada órbita les corresponde una energía bien definida.

2) Cuando un electrón salta desde una a otra de las órbitas permitidas de un átomo, éste emite luz. Puesto que cada órbita representa un determinado estado energético, a la transición producida le corresponde un incremento de energía bien definido. Este cambio en la energía del electrón conduce a la emisión de luz de una determinada frecuencia, la cual es proporcional a la diferencia entre las energías de los niveles inicial y final.

Cuando se aplicaron estas ideas al átomo de hidrógeno, que es el átomo más simple, ya que está constituido por un solo electrón girando alrededor del  núcleo, se encontró que proporcionaban, exactamente, el mismo espectro que se había medido de un modo experimental.

Nueve años después, en 1922, Bohr recibía el Premio Nobel de física, por su interpretación del espectro del hidrógeno, basada en su modelo atómico. La importancia de este revolucionario modelo atómico no necesita ser comentada, y su inmediata aplicación para explicar el espectro del hidrógeno ha sido calificada como uno de los mayores triunfos de la física.

En su laboratorio de Copenhague trabajaban la refugiada judía Lise Meitner y su sobrino Otto Frisch. Cuando los alemanes Hahn y Strassman publicaron los resultados de sus investigaciones sobre el bombardeo de átomos de uranio con neutrones, descubriendo con asombro que aparecían pequeños indicios de bario y criptón, sin determinar su origen, Bhor se entusiasmó con la idea propuesta por Meitner y Frisch de que tal vez el uranio absorbía un neutrón que se dividiera en dos fragmentos más o menos iguales.

Bohr viajó a Estados Unidos donde se reunió con Einstein y Fermi. Allí recibió una comunicación de sus colaboradores Meitner y Frisch quienes le avisaban que al repetir el experimento comprobaron que el núcleo de uranio se había dividido. Lo que fue discutido entre los tres sabios, sacando las consecuencias en cuanto a la enorme obtención de energía según este proceso

Desde 1913, y con sólo unas modificaciones efectuadas en la tercera década de este siglo, el modelo atómico de Bohr ha sido fundamental en la descripción de los procesos atómicos.

Durante estos años, fueron explicándose, progresivamente, muchos fenómenos no totalmente comprendidos o interpretados: la estructura de los espectros de otros elementos, los procesos de absorción y emisión luminosa, la formación del sistema periódico de los elementos, las propiedades periódicas de las 92 especies atómicas entonces conocidas, etc.

En 1920, fue fundado el Instituto de Física Teórica de Copenhague, del que Niels Bohr fue nombrado director, centro que desde entonces ha permanecido a la vanguardia de la física teórica nuclear.

Los mejores físicos del mundo hacían frecuentes visitas a este instituto, para discutir con Bohr las modificaciones de su teoría. Niels Bohr, el modesto físico danés que nació antes de que la radiactividad fuese descubierta y que llegó a ser una máxima autoridad en el estudio de las leyes fundamentales del átomo, murió en noviembre de 1962.

esquema modelo atomico bohr

En el modelo atómico propuesto por J. J. Thomson en 1904, se suponía que los electrones estaban contenidos en una esfera cargada positivamente, y que la masa del átomo era fundamentalmente debida a los electrones.

En el modelo del átomo de hidrógeno propuesto por Bohr, el electrón puede moverse a lo largo de ciertas órbitas situadas alrededor del núcleo: cuando un electrón salta de una órbita a otra más cercana al núcleo, el átomo emite luz de un cierto color, que depende de las órbitas que entran en juego.

Así, si un átomo de hidrógeno no está excitado, se encuentra en su estado normal y los electrones están situados en la órbita más cercana al núcleo, con lo que no puede producirse emisión de luz alguna.

https://historiaybiografias.com/linea_divisoria3.jpg

UNA VIDA DE TRABAJO: Un hombre dedicado totalmente al trabajo, nos recuerda la clásica imagen del hombre que en las profundidades de su laboratorio sabe encontrar las verdades de la naturaleza. Poco amigo de los reconocimientos, carácter sencillo y afable, profundiza en sus primeros hallazgos. En 1922, cuando contaba treinta y siete años, recibió el Premio Nobel de Física. En estos seis años, sobreponiéndose a las consecuencias de la primera gran guerra, había demostrado que el edificio atómico se complica progresivamente a medida que uno se eleva en la escala de Mendeléiev.

Niels Bohr sacó una serie de conclusiones en lo tocante a los lechos y niveles de electrones intraatómicos, así como también sobre las correlaciones existentes entre esta edificación progresiva y la variación concomitante de las propiedades de los elementos; estas investigaciones tan importantes tuvieron una gran resonancia y la ley de saturación de los niveles electrónicos que condujo a precisar, tal como apunta Louis de Broglie, puede ser puesta en relación estrecha con el principio de exclusión poco más o menos enunciado por W. Pauli.

Gracias al esfuerzo de Niels Bohr, pues, la nueva mecánica nació alrededor del año 1925. Apareció bajo dos formulaciones, equivalentes y digamos por azar simultáneas, que fueron la mecánica de matrices de Heisenberg, Born y Jordán y la mecánica ondulatoria de Schródinger. El primero de estos principios había partido del análisis de la teoría de los quanta formulado por Niels Bohr.

La segunda proposición, en cambio, se originó sobre las ondas de la materia y gracias a los trabajos de Louis de Broglie. Siguiendo este proceso histórico, la equivalencia de ambas formulaciones la demostró Schródinger. Pero la formulación coherente de la teoría, su extensión y aplicación al campo electromagnético, o sea la mecánica quántica relativista del electrón, fue llevada a cabo por Dirac.

Es decir, Niels Bohr, que al parecer era un matemático mediocre, no participó, esto es de un modo directo, en la creación definitiva de la nueva mecánica; su colaboración fundamental se sitúa en lo que hace referencia a la interpretación física de la teoría, o, si se quiere, a través de una de las intuiciones más geniales que podemos registrar en la ciencia contemporánea.

El trabajo científico de Bohr se vio interrumpido por la invasión alemana, que le obligó a dejar su país. Con anterioridad, aun en Copenhague, se convirtió en el protector de los judíos expulsados.

Muchas son las muestras que jalonan su espíritu generoso, con una gran dureza crítica, enfrentándose éticamente contra la ideología nazi. Pues bien, a la entrada de los alemanes, en 1943, a través de Suecia se dirigió a Inglaterra y, finalmente, a los Estados Unidos; con un renombre universal, los norteamericanos le dieron toda clase de facilidades, prácticamente dirigiendo uno de los principales centros de investigación, aunque en aquel entonces las búsquedas en este campo sufrían la presión de las necesidades bélicas.

Niels Bohr trabajó en Los Álamos, contribuyendo a la fabricación de la bomba atómica. Consciente de las consecuencias que ello podía reportar, en el mes de julio de 1944 escribió un Memorándum dirigido a Roosevelt y Churchill, advirtiendo de las consecuencias y proponiendo la colaboración para la búsqueda y control de las armas nucleares. Pero no dio ningún resultado. 

Niels Bohr regresó a su ciudad natal en 1945, siendo nombrado presidente de la Academia de Ciencias danesa. Trabajando en relación con el CERN de Genova, hizo cuanto pudo para tratar de perfeccionar, y llevar a límites pacíficos, las búsquedas teóricas de este importante centro de estudios nucleares.

 Su fin estaba próximo, aunque la actividad científica seguía suscitando, orientando y comentando los trabajos de sus discípulos. Pero el 18 de noviembre de 1962 de una forma súbita falleció; hay quien dice, con razón profunda, sintiendo el drama de conciencia —como también lo sintieron Einstein y Op-penheimer— de haber hecho posible la bomba atómica; realmente, de sus setenta y siete años de vida, los veinte últimos fueron un esfuerzo para evitar el desastre.

https://historiaybiografias.com/linea_divisoria3.jpg

ALGO MAS SOBRE LA BIOGRAFÍA DE NEILS BOHR: Fue Niels Bohr, quien llevó a los Estados Unidos la noticia de que en 1939, Lise Meitner y O. R. Frisch habían dividido el átomo de uranio. No mucho después de que Bohr regresó a Copenhague, de aquel importante viaje, los nazis ocuparon Dinamarca.

Bohr ordenó inmediatamente que todo el trabajo se detuviera en su instituto de física teórica. Después, en 1943, cuando se enteró de que iba a ser arrestado, escapó a Suecia con su esposa y su hijo Aage. Pronto se encontró de nuevo en los Estados Unidos.

A mediados del año de 1940, un cierto Mr. Nicholas Brown iba, a menudo, a Los Álamos, Nuevo México, donde se construía la primera bomba atómica. Para mucha gente era sólo un científico más del proyecto, pero para otros era probablemente, una figura familiar.

Los que le reconocían debían preguntarse, «¿Mr. Brown? —Se parece a . . .», y se callaban, porque no debían circular las noticias de que el gran Niels Bohr estaba ayudando a los Estados Unidos a desarrollar La energía atómica.

Bohr estaba angustiado con la bomba. Incluso antes de que fuera usada por primera vez, intentaba persuadir a la gente de la necesidad de regular esta nueva forma de energía. En 1950, escribió a las Naciones Unidas sobre la importancia del control internacional de la energía atómica. En 1955, ayudó a organizar en Ginebra la Conferencia de Átomos para la Paz. En 1957, —treinta y cinco años después de haber recibido el Premio Nobel de Física— se le concedió el primer Premio de Átomos para la Paz.

Bohr fue, probablemente, el más grande de todos los físicos atómicos. En 1913, utilizó la teoría cuántica para explicar las líneas espectrales del hidrógeno. Sabía que su teoría atómica no era aplicable para otros elementos y continuó mejorándola. Desarrolló importantes teorías sobre la naturaleza del núcleo. Tal vez, tan importante como sus investigaciones, fue su trabajo de maestro.

Muchos grandes físicos nucleares estudiaron con él. En una serie de tributos a Bohr, en su cumpleaños, algunos de sus antiguos discípulos famosos, le presentaron parodias sobre informes de importantes investigaciones. Se pueden ver algunas de estas divertidas narraciones en el número de marzo de 1956 del Scienfifíc American.

Fuente Consultada:
Revista TECNIRAMA N°56
El Estallido Científico en el Siglo XX Trevor Williams
FÍSICA Fundamentos y Fronteras Stollberg-Hill

El Principio de Daniel Bernoulli: Vida y Obra del Mátematico

iografía de Daniel Bernoulli: El Gran Matemático

Daniel Bernoulli: un gran matemático

Desde que la gran depresión comenzó a derrumbar la civilización occidental, los eugenistas, los genetistas, los psicólogos, los políticos, y los dictadores, por muy diferentes razones, han prestado renovado interés en la controversia aun no resuelta, de la herencia frente al medio.

En un extremo, el cien por cien de los proletarios mantiene que cualquiera puede ser genio si se le da la oportunidad, mientras el otro extremo, los tories, afirman que el genio es innato y que puede darse en los bajos fondos de Londres.

Entre los dos extremos existen todos los matices de pensamiento. La opinión media mantiene que la naturaleza, y no la educación, es el factor dominante para que surja el genio, pero sin una asistencia deliberada o accidental el genio perece. La historia de la Matemática ofrece abundante material para un estudio de este interesante problema.

Sin tomar partido, hacerlo así actualmente sería prematuro, podemos decir que la prueba proporcionada por la vida de los matemáticos parece estar en favor de la opinión mencionada.

Probablemente el caso más notable es el de la familia Bernoulli, que en tres generaciones produjo ocho matemáticos, varios de ellos sobresalientes, que a su vez dieron lugar a numerosos descendientes, de los cuales la mitad eran hombres de talento superior al tipo medio, y casi todos ellos, hasta el presente, han sido individuos superiores.

No menos de 120 miembros entre los descendientes de los matemáticos Bernoulli han sido seguidos genealógicamente, y de esta considerable descendencia la mayoría alcanzó posición distinguida, algunas veces eminente, en las leyes, profesorado, ciencia, literatura, administración y artes. Ninguno fracasó.

El hecho más significativo observado en numerosos miembros matemáticos de esta familia de la segunda y tercera generación es que no eligieron deliberadamente la Matemática como una profesión, sino que se vieron atraídos hacia ella a pesar de sí mismos, como un dipsómano vuelve al alcohol.

Como la familia Bernoulli desempeñó un papel esencial en el desarrollo del Cálculo y de sus aplicaciones en los siglos XVII y XVIII, merece algo más que una rápida mención, aunque este libro sea simplemente una breve exposición de la evolución de la Matemática moderna.

Los Bernoulli y Euler fueron, en efecto, los matemáticos que perfeccionaron el Cálculo hasta el punto de que un hombre común puede utilizarlo para obtener resultados a que no podrían llegar los más famosos sabios griegos. Pero el volumen de la labor de la familia Bernoulli es demasiado grande para que pueda hacerse una descripción detallada, en una obra como esta, y por ello nos ocuparemos de estos matemáticos conjuntamente.

Los Bernoulli fueron una de las muchas familias protestantes que huyeron de Amberes en 1583 para escapar de la matanza de los católicos (como en las vísperas de San Bartolomé) en su prolongada persecución de los hugonotes. La familia buscó primeramente refugio en Francfort, y luego pasó a Suiza estableciéndose en Basilea.

El fundador de la dinastía Bernoulli se casó con una mujer perteneciente a una de las más antiguas familias de Basilea, y fue un gran comerciante. Nicolaus senior, que encabeza el árbol genealógico, fue también un gran comerciante, como lo habían sido su abuelo y su bisabuelo. Todos estos hombres se casaron con hijas de comerciantes, y salvo una excepción, el bisabuelo mencionado, acumularon grandes fortunas.

La excepción muestra la primera desviación de la tradición familiar por el comercio, al seguir la profesión de medicina.

El talento matemático estuvo probablemente latente durante generaciones en esta astuta familia de comerciantes y surgió de un modo explosivo. Refiriéndonos ahora al árbol genealógico haremos un breve resumen de las principales actividades científicas de los ocho matemáticos descendientes de Nicolaus senior, antes de continuar con la herencia. Jacob I estudió por sí mismo la forma del Cálculo ideada por Leibniz.

Desde 1687 hasta su muerte fue profesor de Matemáticas en Basilea. Jacob I fue uno de los primeros en desarrollar el Cálculo más allá del estado en que lo dejaron Newton y Leibniz y en aplicarlo a nuevos problemas difíciles e importantes. Sus contribuciones a la Geometría analítica a la teoría de probabilidades y al cálculo de variaciones, fueron de extraordinaria importancia.

Como hemos de mencionar repetidamente este último (en la obra de Euler, Lagrange, y Hamilton) será útil describir la naturaleza de algunos de los problemas abordados por Jacobo I en esta cuestión.

Tenemos ya una muestra del tipo del problema tratado por el cálculo de variaciones en el teorema de Fermat sobre el tiempo mínimo. El cálculo de variaciones es de origen muy antiguo. Según la leyenda, cuando Cartago fue fundada, la ciudad estaba asentada en un terreno tan pequeño que un hombre podía arar un surco que la rodeara en un solo día.

¿Qué forma debería tener este surco, o, en forma matemática, cuál es la forma que tiene el área máxima entre todas las figuras que poseen perímetros iguales? Este es un problema de isoperímetros, y su respuesta, en este caso, es un círculo. Parece natural que así sea, pero no es fácil de probar. (Las pruebas dadas algunas veces en las Geometrías 1 Realmente he combinado aquí dos leyendas. Se le dio a la reina Dido una piel de toro para que abarcara el área máxima. La reina la cortó en tiras y formó un semicírculo.

La matemática del problema se reduce a hacer que una cierta integral tome un valor máximo sometido a una condición restrictiva. Jacob I resolvió este problema y lo generalizó2. El descubrimiento del que la braquistócrona es una cicloide ha sido ya mencionado en los capítulos precedentes. Este hecho de que la cicloide es la curva de más rápido descenso fue descubierto por los hermanos Jacob I y Johannes I, en 1697, y casi simultáneamente por varios autores.

Pero la cicloide es también tautócrona. Esto le pareció a Johannes I algo maravilloso y admirable: «Con justicia podemos admirar a Huygens, por haber descubierto que una partícula pesada, describe una cicloide siempre en el mismo tiempo, cualquiera que sea el punto de partida. Pero quedaréis petrificados de asombro cuando diga que exactamente esta misma cicloide, la tautócrona de Huygens, es la braquistócrona que estamos buscando» (Bliss, loc. cit., p. 54).

Jacob también quedó entusiasmado. Estos son ejemplos del tipo dé problema abordado por el cálculo de variaciones. Aunque parezca trivial, repetiremos una vez más que toda una parte de la física matemática es frecuentemente tratada con un simple principio de variación, igual que ocurre con el teorema de Fermat sobre el tiempo mínimo en óptica, o con el de Hamilton en dinámica. Después de la muerte de Jacob fue publicado, en 1713, su gran tratado sobre la teoría de probabilidades, el Ars Conjectandi.

Esta obra tiene muchos datos que son aún de máxima utilidad en la teoría de probabilidades y en sus aplicaciones para los seguros y las estadísticas, y para el estudio matemático de la herencia. Otra investigación de Jacob muestra hasta qué punto desarrolló el Cálculo diferencial e integral. Continuando la obra de Leibniz, Jacob hizo un estudio muy completo de la catenaria, la curva que forma una cadena uniforme suspendida por dos puntos.

Esto no es una simple curiosidad. Actualmente, la Matemática desarrollada por Jacob I a este respecto, encuentra su uso en las aplicaciones a los puentes colgantes y a las líneas de transmisión de alto voltaje. Cuando Jacob realizó estos estudios todo era nuevo y difícil; en la actualidad, es un ejercicio del primer curso de Cálculo infinitesimal o de mecánica tradicional. Jacob I y su hermano Johannes I no siempre se llevaron bien. Johannes parece haber sido el más pendenciero de los dos, y seguramente no trató a su hermano con excesiva probidad en el problema de los isoperímetros.

Los Bernoulli tomaban en una forma muy seria sus matemáticas. Algunas de sus cartas acerca de los problemas matemáticos utilizan un lenguaje tan fuerte que parece más propio de los cuatreros. En efecto, Johannes I, no sólo intentó robar las ideas de su hermano, sino que también lanzó a su propio hijo de la casa por haber obtenido un premio en la Academia francesa de Ciencias, para el cual Johannes mismo se había presentado.

Al fin y al cabo, si los seres humanos racionales se excitan en un juego de naipes, ¿por qué no ha de ocurrir lo mismo con la Matemática que es infinitamente más interesante? Jacob I tenía una predisposición mística, cosa que posee cierta significación para el estudio de la herencia de los Bernoulli, y que afloró en una forma interesante hacia el fin de su vida. Existe, cierta espiral (la logarítmica o equiangular) que se reproduce en una espiral análoga después de cada una de sus muchas transformaciones geométricas. Jacob estaba fascinado por esta repetición de la espiral, varias de cuyas propiedades descubrió, y dispuso que una espiral fuera grabada sobre su lápida con la inscripción Eadem mutata resurgo (Aunque cambiada, surjo la misma).

El lema de Jacob fue Invito patre sidera verso (contra la voluntad de mi padre estudio las estrellas), un recuerdo irónico a la vana oposición de su padre a que Jacob dedicara sus talentos a 2 Notas históricas respecto a éste y a otros problemas del cálculo de variaciones, se encontrarán en el libro de G. A. Bliss, Calculus of Variations, Chicago. 1925.

 Estas particularidades están en favor del concepto de la herencia del genio, y no de la educación. Si su padre hubiera vencido, Jacob hubiese sido un teólogo. Johannes I, hermano de Jacob I, no se inició como matemático, sino como doctor en medicina. Su disputa con el hermano, que generosamente le enseñó Matemática, ha sido ya mencionada. Johannes era un hombre de violentas simpatías y antipatías. Leibniz y Euler eran sus dioses; Newton era odiado y estimado en menos.

El obstinado padre intentó llevar a su hijo menor hacia los negocios familiares, pero Johannes I, siguiendo las lecciones de su hermano Jacob I, se reveló, dedicándose a la medicina y a los estudios humanistas, sin darse cuenta de que estaba luchando contra su herencia. Teniendo 18 años recibió el grado de Magister artium. Mucho antes se dio cuenta de su error al haber elegido la medicina, y se dedicó a la Matemática.

Su primer cargo académico lo obtuvo en Groninga, en 1695, como profesor de Matemática, y a la muerte de Jacob I, en 1705, Johannes le sucedió en la, cátedra de Basilea. Johannes I fue todavía más prolífico que su hermano en el campo de la Matemática, y difundió el Cálculo en Europa. Sus estudios abarcan la Física, la Química, y la Astronomía, aparte de la Matemática.

En las ciencias aplicadas Johannes I contribuyó notablemente a los estudios de la óptica, escribió sobre la teoría de las mareas, y sobre la teoría matemática de las velas de los barcos, y enunció el principio de los desplazamientos virtuales en la mecánica. Johannes I fue un hombre de extraordinario vigor físico e intelectual, permaneciendo activo hasta pocos días antes de su muerte a la edad de 80 años. Nicolaus I, el hermano de Jacob I y Johannes I, también tenía talento matemático. Igual que sus hermanos se inició falsamente.

Teniendo 16 años recibió su título de doctor en filosofía en la Universidad de Basilea, y a los 20 años obtuvo el grado superior en Leyes. Fue primero, profesor de Leyes en Berna antes de ser miembro de la Facultad de Matemática en la Academia de San Petersburgo. Al morir, su fama era tanta que la Emperatriz Catalina hizo celebrar un funeral a expensas del Estado.

La herencia aparece curiosamente en la segunda generación. Johannes I intentó dedicar a los negocios a su hijo segundo, Daniel, pero Daniel pensó que prefería la medicina y fue médico antes dedicarse, a pesar suyo, a la Matemática. Teniendo 11 años Daniel comenzó a recibir lecciones de Matemática de su hermano Nicolaus III, que tenía cinco años más que él. Daniel y el gran Euler fueron íntimos amigos y a veces rivales cordiales.

Igual que Euler, Daniel Bernoulli obtuvo el premio de la Academia Francesa 10 veces (en pocas ocasiones este premio ha sido compartido con otros aspirantes). Algunos de los trabajos mejores de Daniel se refieren a la hidrodinámica, que desarrolló partiendo del principio único que más tarde vino a ser llamada la conservación de la energía. Todos los que hoy se dedican al movimiento de los fluidos, en su estudio puro o aplicado, conocen el nombre de Daniel Bernoulli.

En 1725 (teniendo 25 años) Daniel fue nombrado profesor de Matemática en San Petersburgo, donde la relativa dureza de la vida le cansó tanto que volvió a la primera oportunidad, ocho años más tarde, a Basilea, donde fue profesor de anatomía y botánica, y finalmente de física.

Sus trabajos matemáticos abarcan el Cálculo, las ecuaciones diferenciales, las probabilidades, la teoría de las cuerdas vibrantes, un ensayo de una teoría cinética de los gases y muchos otros problemas de Matemática aplicada. Daniel Bernoulli ha sido llamado el fundador de la Física matemática. Desde el punto de vista de la herencia es interesante observar que Daniel tenía, en su naturaleza, una marcada vena de filosofía especulativa, posiblemente una sublimación refinada de la religión hugonote de sus antepasados. Esa naturaleza aflora en numerosos descendientes posteriores de los ilustres refugiados víctimas de la intolerancia religiosa.

El tercer matemático de la segunda generación, Johannes II, hermano de Nicolaus III y de Daniel, también tuvo una iniciación equivocada, siendo conducido hacia su verdadera vocación por su herencia, o posiblemente por sus hermanos. Comenzó estudiando leyes, y llegó a ser profesor de elocuencia en Basilea antes de ser el continuador de su padre en la cátedra de Matemática.

Sus trabajos se refieren principalmente a la física, y se distinguió hasta el punto de obtener el premio París en tres ocasiones (una vez basta para satisfacer a cualquier buen matemático). Johannes, III, un hijo de Johannes II, repitió la tradición de la familia, al errar en su iniciación, y al igual que su padre comenzó estudiando leyes. A la edad de 13 años se doctoró en filosofía.

Teniendo 19 años, Johannes III encontró su verdadera vocación, y fue nombrado astrónomo real en Berlín. Sus estudios abarcan la astronomía, la geografía y la Matemática. Jacob II, otro hijo de Johannes II, cometió el mismo error familiar al estudiar leyes, que subsanó cuando tenía 21 años al dedicarse a la física experimental.

Se dedicó también a la Matemática, siendo miembro de la Sección de Matemática y Física en la Academia de San Petersburgo. Su muerte prematura (a la edad de 30 años) puso fin a su promisoria carrera, y en realidad no se sabe lo que Jacob II hubiera producido. Se casó con una nieta de Euler. La lista de los Bernoulli dotados de talento matemático no queda agotada con esto, pero los otros miembros se distinguieron menos.

Se suele afirmar que las cepas se agotan, pero en este caso parece lo contrario. Cuando la Matemática era el campo que más prometía a los talentos superiores, como ocurrió inmediatamente después de la invención del Cálculo, los Bernoulli de talento cultivaron la Matemática. Pero la Matemática y la ciencia son tan sólo dos de los innumerables campos de la actividad humana, y para un hombre de talento constituiría una falta de sentido práctico querer cultivar campos superhabitados.

El talento de los Bernoulli no se gastó; simplemente se empleó en cosas de igual o hasta de más importancia social que la Matemática cuando el campo matemático era comparable al hipódromo de Epsom el día del Derby. Quienes se interesen en los problemas de la herencia encontrarán abundante material en la historia de las familias Darwin y Dalton.

El caso de Francis Dalton (un primo de Charles Darwin) es particularmente interesante, ya que el estudio matemático de la herencia fue fundado por él. Sería totalmente necio no valorar a los descendientes de Charles Dalton por el hecho de que hayan llegado a ocupar puestos eminentes en la Matemática o en la física-matemática y no en la biología. El genio palpitaba en ellos, y una expresión no es necesariamente mejor» o «superior» a las otras, a no ser que seamos unos fanáticos, y afirmemos que la única ocupación digna es la Matemática, la biología, la sociología, el bridge o el golf.

Puede ser que el abandono de la Matemática por la familia Bernoulli sea justamente un ejemplo más de su genio. Muchas leyendas y anécdotas se cuentan respecto a los famosos Bernoulli, cosa natural tratándose de una familia de miembros tan inteligentes y tan violentos en su lenguaje como ellos eran algunas veces. Una de las frases más conocidas, cuyos auténticos ejemplos deben ser tan antiguos, al menos, como el antiguo Egipto, y que con variantes se ha puesto en boca de toda clase de individuos eminentes, se ha atribuido también a uno de los Bernoulli.

En cierta ocasión, viajando Daniel en compañía de un muchacho joven, se presentó él mismo a su simpático compañero de viaje. «Soy Daniel Bernoulli», a lo que el joven contestó sarcásticamente «Y yo soy Isaac Newton». Daniel, hacia el fin de sus días, encontró en estas palabras el más sincero tributo que hasta entonces había recibido.

CARACTERÍSTICAS DE LOS BARCOS ESPAÑOLES DE LA CONQUISTA DE AMÉRICA

CARACTERÍSTICAS DE LOS BARCOS ESPAÑOLES 

La navegación
El instrumento esencial del descubridor es su buque. La carabela y —en menor medida— la nao. fueron los tipos utilizados; ideadas y perfeccionadas en las costas atlánticas de la península ibérica, y sobre todo, en Portugal, resumen toda la experiencia náutica del Oriente y del Occidente en el Medioevo. Son los primeros tipos de buque a la vez robusto, manejable y maniobrero de que dispuso Europa, y que, desarrollados y perfeccionados, van a darle una supremacía indiscutible sobre los de todo el mundo […].

No conocemos su tonelaje, pero sí su capacidad de carga, que oscila entre 55 y 100 toneladas castellanas, es decir, entre 110 y 200 pipas de vino de 27,5 arrobas cada una (carga muy usual entonces que se tomó por unidad). La carabela más usada, de unas 60 toneladas, debió medir aproximadamente 21,5 metros de eslora total, 15,3 de largo de quilla, y unos 7 de manga, con un calado no superior a los dos metros y altura útil de la bodega no mayor de 2,75 m en el centro del buque […].

La capacidad de carga del buque se reservaba en gran parte para las provisiones de boca, capaces en general para alimentar casi un año a la tripulación, contando con que varias arribadas en Canarias y América permitiesen reponer las reservas de agua, leña, y alimentos frescos, que en parte se obtendrían del mismo mar, pescando. Trigo, vino y aceite, las bases alimenticias del hombre mediterráneo, lo eran también del descubridor; bizcocho o galleta de barco (pan recocido para mejor conservación), vinagre, leguminosas (especialmente judías, garbanzos, lentejas y habas), chacinas, carne y pescado salado, aceitunas y avellanas, arroz, almendras, ajos, cebollas, ciruelas y pasas u otras frutas secas, queso y miel, además del vino y aceite, formaban el elenco habitual de la despensa […].

El resto de la carga se completaba con baratijas y algunos regalos valiosos, destinados a posibles obsequios a reyes exóticos y. sobre todo, al rescate o trueque con los indios, primer balbuceo del comercio transatlántico: a cambio de «tixeras, peines, […] hachas, […] espejos, cascaveles, cuentas de vidrio y otras cosas de esta calidad» los exploradores adquirían de los indígenas víveres frescos […] especias, metales o piedras preciosas, [… ] siempre se preveía el riesgo de un ataque de indios o de piratas. Pocas veces cargaron artillería pesada, más bien piezas medias o ligeras [… ] bombardas y pasamuros de hierro con proyectiles de piedra, que disparan por agujeros labrados en el casco, y culebrinas y falconetes.

Cañonazos, banderas, gritos y la luz de faroles durante la noche, son el equipo completo de transmisiones y enlace.

Las armas de la tripulación varían mucho según los casos y se eligen entre las siguientes: espingardas (luego escopetas), lanzas, picas, […] rodelas e incluso armaduras completas. Los miembros de una expedición descubridora constituyen […], un cuerpo social reducido, pero completo, donde la autoridad está bien establecida y cada individuo tiene misión específica. El mando corresponde a los oficiales, que en todos los buques castellanos de la época son el capitán, el maestre y el piloto.

El capitán, autoridad suprema a bordo, responsable de una disciplina de tipo militar, […] casi siempre figuran en la tripulación […] uno o más veedores, funcionarios del rey encargados de administrar sus fondos cuando se trata de empresas reales, o de fiscalizar y recaudar la participación de la Corona en los beneficios, si se trata de empresas privadas; un cirujano, […] un escribano o secretario para actuar en la toma de posesión de tierras y escribir el diario de la expedición; un intérprete (lengua) de idiomas indígenas; y en armadas importantes, un condestable al mando de les artilleros. Tardíamente (1556) se dispuso la presencia de sacerdotes […].

El régimen económico más frecuente es el de participación de todos los tripulantes en los beneficios, sistema de fuerte raíz medieval […].
Los beneficios se dividían,.en proporciones variables, para el dueño y I-a tripulación; esta última se repartía entre todos, proporcionalmente y a su cargo y categoría […].

La vida a bordo, […] que siempre dura […]. La habitual incomodidad del buque, que la mar gruesa balancearía fuertemente, llegaba a su apogeo en las jornadas terribles de temporal, en que toda la tripulación estaba en alerta o en trabajo permanente y pasaba los días sin poder tomar una comida caliente en una nave donde no debía quedar ni un rincón seco. [En esta empresa] ha surgido un tipo humano de alto relieve: el explorador profesional, contrapartida marítima del soldado profesional que entonces aparece en Europa.

Croquis de una nao:

Croquis de una nao: 1. Cámara de{ capitán. 2. Alojamiento de la tripulación. 3. Toldilla. 4. Cubierta principal. 5. Castillo de proa. 6. Bodega. 7. Timón. 8. Artillería. 9. Fogón en caja de arena. 10. Cofres de la tripulación. 11. Mesana. 12. Mayor. 13. Trinquete. 14. Cofa.

PARA SABER MAS…

La nao y la carabela, principalmente la segunda, fueron los instrumentos materiales de los grandes descubrimientos. Las carabelas, ideadas y perfeccionadas en las costas atlánticas de la península Ibérica, sobre todo en Portugal, constituyen la embarcación más marinera de que dispuso Occidente a lo largo del siglo XV.

Perfeccionada gracias a las experiencias de las exploraciones portuguesas, llegó a ser la síntesis de las cualidades navales que hicieron posible los descubrimientos. Comparada con la galera mediterránea, contrasta por su aparente pesadez. La eslora de las galeras, alargada para conseguir mayor velocidad, daba a estas naves una esbeltez muy superior a la de las carabelas.

Carabelas

En cambio, éstas eran mucho más robustas, capaces de resistir los embates del océano, que hubieran quebrado a las ágiles galeras mediterráneas. Para compensar la pesadez del casco, las carabelas debían arbolar una gran superficie de tela. Velamen desarrollado y casco muy reforzado eran las características más sobresalientes de este tipo de naves.

Las dimensiones de las carabelas fueron muy variadas. Su capacidad de carga oscila entre las 55 y las 100 toneladas castellanas. Una carabela de 60 toneladas, el tipo más difundido, medía unos 21 metros de eslora, 15 de largo de quilla y 7 de manga. Esta proporción, 3-2-1, característica de estas naves, será la que determine el tipo de barco redondo de casco corto y resistente. El calado era de 2 metros y la altura máxima útil de la bodega, de 2,75 metros.

La diferencia principal entre la nao y la carabela estaba en las superestructuras. Mientras la primera poseía dos cubiertas, la segunda sólo tenía una. En la nao, la segunda cubierta se extendía desde el palo mayor, en el centro de la nave, hasta la popa. Bajo ella existía una cámara para la tripulación. Los dos tipos de embarcaciones estaban dotados de un pequeño castillo de proa y de la toldilla, situada a popa, donde se encontraba la cámara del capitán y del contramaestre.

La arboladura se componía de tres palos, mesana, mayor y trinquete, situados en este orden de popa a proa. Las velas típicas del Atlántico eran de forma rectangular, de gran superficie de tela, capaces de mover las recias embarcaciones que surcaban estas aguas. Pero tenían el inconveniente de ser poco maniobreras.

Sólo con vientos de popa podían funcionar satisfactoriamente. Las velas latinas, usadas sobre todo por los árabes pese a su nombre, eran más aptas para navegar con vientos de costado. Las carabelas acostumbraban a llevar un aparejo mixto. En los palos mayor y trinquete se izaban velas cuadrangulares; en el de mesana, velas latinas, de forma triangular, y en el botalón de proa, caso de existir, otra vela rectangular, la cebadera. De esta forma se aliaban las cualidades del aparejo latino a la posibilidad de navegar aprovechando al máximo las empopadas.

La máxima velocidad la alcanzaban las carabelas navegando con vientos sobre la cuarta de popa. Cuando soplaban vientos contrarios, había que ceñir, navegando entonces de bolina, esto es, en zigzag, dando bordadas.

Los materiales empleados para la construcción naval eran muy diversos. Los cascos eran de roble y para la carpintería interior se utilizaban maderas menos resistentes, pero más ligeras. Para las partes metálicas, llamadas clavazón, se empleaba el hierro, y en menor escala el cobre. El lino y el cáñamo se utilizaban como elementos textiles, en las cuerdas y velas. Por último, el alquitrán servía para impermeabilizar los cascos.

Las bodegas de las carabelas, antes de partir para una empresa oceánica, se llenaban casi por completo con los víveres que debían garantizar la subsistencia de la tripulación durante muchos meses. Aunque se preveía hacer escalas para repostar agua dulce, leña, carne y alimentos frescos, la base de la alimentación, trigo, vino y aceite, se almacenaba a bordo para toda la travesía.

La carga de víveres se completaba con salazón de carne y de pescado, legumbres secas, miel, frutas secas y quesos. La humedad y los parásitos destruían buena parte de estas provisiones. Un problema mayor lo constituía el desequilibrio dietético -faltaban alimentos frescos y vitamina C-, causa del escorbuto, enfermedad habitual en las travesías de larga duración.

Otro tipo de carga estaba compuesto por los materiales destinados a servir para reparar los desperfectos que pudieran surgir durante la travesía. Alquitrán, clavos, herrajes, cuerdas, planchas de madera, sebo, pez, además de piezas enteras de repuesto, como un timón y varias áncoras, eran imprescindibles.

La carga se completaba con diversos objetos destinados a servir de moneda de cambio en los posibles contactos con los indígenas. En su mayor parte eran baratijas de escaso valor: bonetes de colores brillantes, espejos, cuentas de vidrio, peines.

Otros revestían carácter utilitario: hachas, cuchillos, tijeras, anzuelos. Algunos, los menos, eran regalos de valor, destinados a los reyes o príncipes más importantes que los expedicionarios pudieran hallar. A cambio obtenían víveres frescos y, si la suerte les era propicia, especias, esclavos y piedras y metales preciosos.

Hasta los viajes de Vasco de Gama las naves no fueron especialmente preparadas para la guerra. Pero la seguridad de los tripulantes siempre estuvo garantizada por una amplia gama de armas. Sobre cubierta se montaban piezas de artillería ligera, culebrinas y falconetes, que disparaban metralla de hierro. Bajo cubierta, por agujeros practicados en el casco, las bombardas podían arrojar proyectiles de piedra o hierro.

La tripulación también estaba armada. Espingardas, lanzas, picas, espadas, armas arrojadizas, rodelas e incluso armaduras completas integraban el arsenal. Los portugueses solían hacer una exhibición de su poder militar cuando recibían a bordo la visita de algún cacique indígena.

Primero le mostraban todas sus armas, después disparaban una salva de cañonazos y, por último, hacían gala de las cualidades defensivas de una armadura, recubriendo con ella a uno de los tripulantes, que era golpeado, sin consecuencias, por los miembros de la comitiva del cacique.

Cuadro Comparativo De Los Barcos en la Edad Moderna

Fuente Consultada:
VICENS VIVES. J. Historia social y económica de España v América.
Historia Universal Tomo 13 Salvat

Navios Romanos y Griegos Trirremes Galeras Romanas Barcos Fenicios

Navíos Romanos y Griegos: Trirremes y Galeras

¿Ha pensado alguna vez en el coraje del primer hombre que, a bordo de una primitiva balsa, se lanzó al mar desconocido y amenazador? Nuestros antepasados demostraron un valor admirable, pues, al contrario de casi todos los animales, el hombre no sabe nadar cuando nace: debe aprender a hacerlo, a veces con grandes esfuerzos.

Para esos hombres de épocas tan remotas, los lagos y los ríos eran barreras infranqueables. Quizás, alguno de ellos, mientras estaba sobre el tronco de un árbol, se vio arrastrado por la corriente y comprendió que tenía a su alcance un medio de transporte práctico y relativamente seguro. Varios troncos paralelos atados entre sí fueron las primeras balsas utilizadas por los habitantes de los palafitos para llegar hasta su casa levantada sobre estacas.

¿Cuánta paciencia y cuántas generaciones de hombres fueron necesarias para descubrir instrumentos adecuados, antes de poder cortar un tronco y ahuecarlo en forma de piragua? En algunos poblados de Asia y África se utilizan aún canoas idénticas a las primitivas. En el archipiélago de Sonda y en las islas Filipinas. los indígenas construyen piraguas con cañas y pieles. Son embarcaciones livianas, perfectamente manejables, que tienen a veces una gran vela triangular y un ingenioso sistema de balancines para estabilizarlas. Se deslizan sobre las aguas, rozándolas apenas, como silenciosas gaviotas.

DE MENFIS A CARTAGO: Acerquémonos ahora al Mediterráneo, cuna de los primeros marinos. Estamos en la orilla occidental del Nilo, alrededor del año 2000 antes de nuestra era. Vemos el puerto de Menfis, donde hay grandes barcos con inmensas velas triangulares.

Son navíos de transporte mucho más sólidos que las embarcaciones que recorren el Nilo entre Tebas y el mar: de una longitud de treinta o cuarenta metros, con un palo central y una vela más ancha que alta; su calado, apropiado para las aguas poco profundas del delta, no excede de un metro.

En los primeros tiempos de su civilización, los egipcios habían construido barcos iguales a los usados por los polinesios, es decir, un armazón de madera revestida con pieles de animales. Después utilizaron exclusivamente madera, que traían del Sudán: en Egipto no hay bosques y tal vez por ese motivo la patria de los faraones fue una potencia terrestre que prefería no correr aventuras en el mar. Sin embargo, fueron egipcios los primeros navíos importantes 4ue cruzaron el Mediterráneo.

Casi en la misma época, aparecieron a lo largo de las costas asiáticas unos navíos de aspecto muy distinto. No eran muy altos y su proa estaba armada con un espolón cónico. Los tripulaban habilísimos marinos qué, desde Tiro, Sidón y Cartago, navegaban hacia las islas lejanas y misteriosas- Esos hombres audaces eran los fenicios, extraordinarios comerciantes que desarrollaron una gran civilización; pero su imperio, basado en la fuerza movediza del viento y de los mares, naufragó como una frágil embarcación.

Algunos bajorrelieves asirios y griegos nos muestran navíos iguales a los que vemos en las figuras. Pero Ej. modelo asirio fue completamente transformado gracias a los constructores navales de Tarsis y de Cartago, que diseñaron barcos rapidísimos, especiales para largas travesías y para ataques por sorpresa. Como no se atrevieron a construir naves de gran tamaño por temor de que fueran menos sólidas, pensaron en colocar tres filas de remeros en tres pisos, uno encima de otro.

Surgieron así los trirremes, que se conservaron sin grandes cambios durante siglos y se emplearon tanto en la paz como en la guerra. Los dorios (que eran uno de los pueblos helénicos) aprendieron el arte de navegar de estos mercaderes-piratas, cuyos navíos estaban armados para expediciones de corsarios y recorrían las costas del Ática o del Peloponeso. Existen antiguos vasos griegos que reproducen trirremes y barcos comerciales análogos a los cretenses y fenicios.

Estos barcos tenían velas cuadradas, con un castillete de popa muy alto y tres filas de remeros. Los timones eran dos remos, anchos y chatos, ubicados en la parte posterior del barco, y los maniobraban dos marineros a las órdenes de un piloto. Por estas características los trirremes podían emprender largos viajes costeando el Mediterráneo, sin riesgos excesivos y libres del temor de ser atacados por los fenicios, fundadores de Cartago, que desde esa ciudad dominaban el mar cercano.

Al contrario de los cartagineses, los romanos no tenían gran experiencia en los combates navales; sus huestes, eran vencibles en tierra, no se sentían seguras sobre las cubiertas de los trirremes. Añadiremos que el poderío de la flota romana era inferior al de la fenicia.

Pero ése no era obstáculo para detener a los guerreros de Roma, que con sus barcos equipados con el invento de Cayo Duilio (consistente en un puente levadizo provisto de garfios, para facilitar el abordaje) habían derrotado ya a las pequeñas flotas de las colonias griegas. Sin embargo, para enfrentar a los cartagineses necesitaban naves más poderosas.

Tomando entonces como modelo un quinquerreme arrojado por el mar sobre la costa de Ostia, aliada de Roma, Cayo Duilio ordenó la construcción de cien de ellos. El quinquerreme era el último invento de los fenicios: parecido al trirreme por su forma, pero de mayor tamaño y con cinco filas de remeros.

Los ingenieros romanos los hicieron más completos agregándoles un castillo en la proa, desde donde se manejaba un puente levadizo con poderosos ganchos; al bajar el puente, los ganchos sujetaban fuertemente al barco enemigo; entonces los guerreros se lanzaban al abordaje.

Al aproximarse la flota romana, seguros de lograr como siempre la victoria, los cartagineses se aprestaron a la lucha. ¿Qué podían hacer contra el poderío de Cartago esos campesinos tan poco acostumbrados a la furia del mar? Dos horas después, las escuadras estaban tan cerca que podían oírse las voces de los cómitres de las naves que marcaban el ritmo a los remeros.

Resplandecían al sol los cascos y las espadas de los hombres dispuestos a la batalla. Cuál no seria la sorpresa de los cartagineses al ver que sus adversarios se acercaban como verdaderos maestros en el arte de entablar la lucha! A fuerza de remos, ejecutando una maniobra de sorprendente precisión, los barcos romanos se acercaron a los cartagineses según un plan rigurosamente estudiado. El choque se produjo con un ruido ensordecedor.

Los garfios inventados por Cayo Duilio, arrojados desde los puentes, se aferraron como aves de presa a losquinquerremes cartagineses, y, con rapidez increíble, los legionarios se precipitaron en los barcos enemigos. Ese día, envuelta en llamas, la flota pánica se hundió en el Mediterráneo, arrastrando consigo el poderío de la orgullosa Cartago.

MARE NOSTRUM: Durante siglos los romanos dominaron el Mediterráneo al que llamaron Mare Nostrum (mar nuestro). La perfección alcanzada por los constructores navales ha sido comprobada con las naves que hace pocos años se sacaron del lodo después del desecamiento del lago Nemi. Esos navíos se asemejan más a los modernos que los de la Edad Media.

En la época imperial, Roma construyó cuadrirremes de 150 metros de largo. Estaban armados con decenas de piezas de guerra ubicadas en torres y su tripulación alcanzaba a mil hombres. Pero cuando desaparecieron todos los adversarios dignos del poderío de Roma, los grandes navíos de guerra se hicieron inútiles; la marina romana construyó entonces embarcaciones livianas y rápidas, como las liburnias, de velamen reducido y tonelaje muy inferior a los cuadrirremes, para el servicio de policía contra los piratas y contrabandistas del Mediterráneo.

En cambio, aumentó considerablemente el tamaño de las naves mercantes (llamadas “barcos redondos” por su forma), que tenían un velamen más abundante, sostenido por un palo mayor y una especie de trinquete indinado sobre la proa.

LOS VIKINGOS: Llegamos al siglo IX de nuestra era. Mientras en el mar Egeo y en el Jónico las galeras bizantinas se enfrentan con los sarracenos, en el mar del Norte aparecen largas y gallardas embarcaciones. Un monje deSaint Call, autor de las Gestas de Carlomagno, afirma haberlas visto a lo largo de las costas del norte de Francia. Las tripulaban los vikingos, piratas despiadados que asolaban las costas de Europa.

Los navíos de los vikingos tenían dos velas, proa puntiaguda y quilla plana. Esos “dragones del mar” podían cruzar mares y remontar ríos. Existe incluso la teoría de -que, arrastrados por algunas tormentas, pudieron llegar a Groenlandia.

Llegaron hasta Francia y el sur de Italia, donde se los llamó normandos, nombre derivado de “nor” y “man”, que significa hombres del norte. Y así era, pues venían de Escandinavia. Existen todavía iglesias y castillos edificados bor ellos, porque muchos de esos paganos se convirtieron al cristianismo.

GALERAS DE LA EDAD MEDIA: En la cuenca mediterránea, los dromones bizantinos se habían modificado lentamente. Después del año mil las flotas de Bizancio, Venecia y Génova, estaban integradas por navíos de alrededor de setenta metros de largo, impulsados los remos y por dos velas latinas que se utilizaban cuando viento era favorable.

Estos barcos, aptos para la guerra y para las expediciones de corsarios, eran muy angostos. Se llamaron galeazas, y todas las embarcaciones construidas hasta el siglo XVII los tomaron como modelo.

Su armamento consistía en dos catapultas colocadas a proa. Más adelante fueron reemplazadas por cañones. Además de la tripulación corriente, llevaban un centenar de hombres armados. Los remeros estaban protegidos por dos hileras de escudos, colocadas una encima de otra a lo largo del barco. Dos grandes plataformas sostenían las máquinas de guerra, y allí estaban también los combatientes.

Al recordar las antiguas galeras pensamos en horrendas cárceles flotantes. Los remeros se llamaban galeotes y eran elegidos entre los condenados a prisión que por su fortaleza física podían soportar el trato cruel que les daban. Encadenados a sus bancos y apaleados por los cómitres, su condena terminaba únicamente con la muerte.

Los barcos mercantes medievales, construidos según el modelo de los navíos romanos, empezaron a realizar largos viajes en el siglo XII , escoltados por galeras ligeras. Estos navíos tenían un castillete en la proa y otro en la popa; su velamen, hábilmente dispuesto, podía aprovechar hasta los vientos más leves.

Se transformaron después en carabelas de poco tonelaje, como la Niña y la Pinta de Colón, o en enormes naves de tres palos. Durante las cruzadas se abrieron anchas puertas en los costados de las suaves para poder embarcar o desembarcar caballos.

Observemos que la existencia del Occidente cristiano se debe en buena parte a las galeras y a todos los barcos impulsados a remo. En efecto, después de un millar de años de guerras inútiles, los occidentales comprendieron que debían unirse contra el poderío turco, cada vez más amenazador.

El 7 de octubre de 1571, en aguas de Lepanto (Grecia), la flota cristiana, al mando de don Juan de Austria, se enfrentó con más de doscientas naves turcas. Españoles, venecianos, genoveses y pontificios, unidos ahora por una causa común, lanzaron sus galeras al ataque; los cañones tronaron durante largas horas y, al atardecer, cincuenta barcos turcos estaban en el fondo del mar y 117 habían sido apresados. La derrota de Lepanto debilitó el poder del Sultán. Europa tomó el impulso hacia la supremacía mundial que debía conservar durante siglos.

La navegación a vela era un arte muy difícil; reclamaba rapidez en el cálculo, conocimiento del mar y de los vientos, inteligencia y coraje.

En el siglo, XIV el descubrimiento de la brújula y su perfeccionamiento por Flavio Gioja, de Amalfi, alrededor del año 1300, inauguraron el segundo ciclo de la navegación. Gracias a ese instrumento maravilloso, Europa podía aventurarse a descubrir tierras desconocidas. Se empezó por las Canarias, Maderas, las Azores, las islas del Cabo Verde, y se concluyó con las Indias Orientales y América.

Cuando en la noche del 15 de marzo de 1493 la Niña ancló de regreso en aguas de Palos, nadie tuvo una clara visión de la importancia del hecho. El mismo Colón no se había dado cuenta de que el voluminoso cuaderno de bitácora que llevaba bajo el brazo abría una nueva era para la humanidad.

En 1497, Vasco de Gama dobló el cabo de Buena Esperanza. En 1520, Magallanes y Elcano encontraron, en el extremo sur de América, un estrecho que les conduciría al Pacífico. Las grandes rutas del mundo quedaban abiertas, Pero la navegación de alta mar, sin puertos donde recalar, tornaba inadecuado el empleo de los remos. El uso de las velas cuadradas se difundía cada vez más, y el velamen, al disminuir sus dimensiones, acrecentaba la posibilidad de mejores maniobras, más rápidas y de mayor seguridad.

En el siglo XVI, el invento de la corredera (instrumento para medir la velocidad de los barcos) y de las nuevas cartas de navegación, permitieron a los marinos calcular su ruta con mayor exactitud. Los progresos realizados en los instrumentos de la astronomía náutica y en los cronómetros aumentaron la seguridad.

Al final del siglo XVIII , gracias a los sextantes, aparatos que sirven para medir ángulos y distancias, a los relojes marinos y a las cartas de marear, los barcos siempre podían establecer su posición con exactitud.
Entre tanto las carabelas, las galeras, las grandes carracas y las naves ligeras llamadas caiques habían desaparecido o se las había transformado.

Los galeones españoles que realizaban un activo comercio entre América y España fueron construidos según el modelo de los antiguos navíos y tenían una arboladura —artimón, palo mayor y trinquete— que soportaba un velamen poderoso. El viento los impulsaba gracias a la eficaz disposición de las velas. Esas naves tenían un castillo de popa donde estaba el puente de mando; iban fuertemente amadas para hacer frente a cualquier peligro.

Francia, España, Inglaterra y Holanda estuvieron casi continuamente en guerra durante 200 años. Piratas y corsarios se aventuraban a través de los mares y se ensañaban con los barcos que apresaban y saqueaban. Los jefes musulmanes consideraban esa clase de bandolerismo como una profesión.

Después del galeón, demasiado pesado y sobrecargado, se construyeron naves más esbeltas, que hoy se llamarían hidrodinámicas. El velamen era más alto y facilitaba las maniobras; gracias a él, las embarcaciones se deslizaban más velozmente. Pero los constructores navales no habían sido nada más que buenos carpinteros y desconocían muchos problemas de la arquitectura náutica.

En el siglo XVIII , la Academia de Ciencias de Francia llamé a concurso a los grandes estudiosos de la geometría para mejorar la forma, el velamen, la distribución de la carga y la propulsión. El ingeniero Sané, francés, construyó los mas perfectos navíos de alta mar. Durante las guerras de la Revolución Francesa, varios de ellos cayeron en manos de los ingleses que los utilizaron como modelo.

Generalmente las velas toman el nombre del palo que las sostiene. Hay velas cuadradas (como la gran vela y el trinquete), trapezoidales o cangrejas como las gavias del mastelero mayor y los perroquetes, y triangulares como los foques y las latinas. Relativamente sencilla en las goletas o en los bergantines, la navegación era un arte muy difícil en los barbos de gran calado. Cada una de sus velas debía ser orientada exactamente según la dirección y las variaciones del viento, para alcanzar el máximo de velocidad con el mínimo de riesgo.

En la época de la navegación a vela, la vida de los marinos era muy penosa. De noche o de día, a menudo en plena tormenta, los gavieros (grumetes de vigía) debían trepar y aferrarse a la arboladura, orientar o amurar las velas, mientras otros tripulantes debían maniobrar los pesados palos horizontales cada vez que la nave cambiaba de rumbo.

En los navíos del Estado la alimentación no era buena y a menudo se echaba a perder en los largos cruceros por los mares cálidos. Sin embargo, la pasión por el mar era tan fuerte que hacia olvidar todas las penurias.

Los barcos se clasificaban en primera, segunda y tercera categoría, según el tonelaje y el armamento. En el siglo XVIII , los navíos de línea estaban artillados con cien cañones y desplazaban seis mil toneladas, y las fragatas estaban armadas con piezas de artillería cuyo número oscilaba entre treinta y sesenta. Para escolta y exploración se empleaban naves más pequeñas como las corbetas, los bergantines y las embarcaciones ligeras de un solo palo llamadas cuteres”.

A principios del siglo XIX, la navegación a vela alcanzó su apogeo con los grandes barcos rápidos y seguros que a gran velocidad cruzaban los océanos con su velamen desplegado.

En ese entonces se creía que los barcos de vapor—se los llamaba aún “piróscafos”— sólo podrían servir para la navegación fluvial. En nuestros días, únicamente por depone navegamos, corremos regatas y realizamos cruceros en barcos a vela.

¿Acaso podemos comprender, de este modo, los sacrificios, angustias y penurias de los antiguos navegantes? … Para tener una leve idea, espiemos un poco en el libro de viajes de Colón: “En ochenta días de espantable tormenta no vi el sol ni las estrellas del mar: los navíos tenían rumbos abiertos, rotas las velas, perdidas anda y jarcia, y barcas y bastimentos. La gente enferma. Ahí estaba Fernando, mi hijo, con sus trece años. De verlo, el dolor me arrancaba el alma”

Cuadro Comparativo De Los Barcos en la Edad Moderna

Fuente Consultada: Lo Se Todo Tomo III

Historia del Uso del Vapor en los Barcos Navegacion Maritima

Historia del Uso del Vapor en los Barcos

La Revolución Industrial, que comenzó en Inglaterra a fines del siglo XVIII, utilizó el vapor como su principal fuente de energía.

El descubrimiento se aplicó, en un primer momento, a las máquinas mineras y a las textiles, consiguiendo en ambos casos un aumento notable en la producción.

Pronto, sin embargo, los inventores orientaron sus esfuerzos a mejorar los transportes tanto terrestres como marítimos.

El ferrocarril, en el primer caso, y el barco de vapor, en el segundo, fueron los dos principales productos de aquellos afanes y los que revolucionaron las comunicaciones en el siglo XIX.

Una de las consecuencias directas de esos inventos fue el acortamiento de las distancias y la posibilidad de hacer más efectivo el control de los países centrales sobre sus colonias.

Aunque los primeros intentos de aplicación del vapor a la navegación fueran tan antiguos como los primeros ensayos de locomotoras, la difusión y el triunfo de la propulsión por vapor fueron mucho más lentos en el mar que en tierra firme.

La próxima evidencia de progreso fue la aparición de barcos sin vela que comenzaron a surcar en ambos sentidos todos nuestros ríos.

Los espectadores apiñados a lo largo de los ríos Delaware, Hudson, y a veces el Ohio y Misisipí, se asombraban de ver barcos que avanzaban velozmente contra el viento y la corriente. Los horarios diarios de los nuevos barcos, que navegaban a una velocidad fija, nos dieron nueva conciencia del tiempo.

El hombre empezó a acelerar sus actividades para no perder terreno ante la puntualidad de la máquina. Fue el amanecer de la era de la velocidad.

Ya en 1783 el francés Claude Francpis había obtenido éxito al crear su «Pyroscaphe», un barco de vapor con ruedas de paletas. Pese a ello, su logro no tuvo futuro.

El impulso prosiguió en Estados Unidos, donde John Stevens botó en 1809 el «Phoenix» en aguas del Atlántico, y en 1811 el primer barco de vapor surcó el Ohio, un río afluente del Missouri.

La construcción naval tradicional de madera fue sustituida por la de hierro y el acero.

En 1822, los norteamericanos botaron el primer barco de hierro, el «Aarón Mamby». Y, entre 1838 y 1844, estadounidenses y británicos se lanzaron a una carrera de competencia naval y botaron, respectivamente, el «Iron Side» y el «Great Britain», este último dotado de propulsión a hélice. Esos barcos batieron récords de velocidad e impulsaron el comercio mundial a gran escala.

https://historiaybiografias.com/linea_divisoria4.jpg

PRIMERAS EXPERIENCIAS:  La invención del buque de vapor fue gradual, y, en consecuencia, nadie puede reclamar personalmente el honor de la misma, aunque a veces se le atribuya a Henry Bell como artífice del vapor de ruedas Comet, que se dedicó al transporte de pasajeros por el río Clyde (Escocia) en 1812.

La mayor parte de los primeros intentos al respecto fueron meras fantasías, pero, a finales del siglo XVII, el inventor francés Denis Papin pensó en un buque de ruedas movido por una máquina de vapor.

Pocos años después, en 1712, Newcomen construiría la primera máquina de vapor, no empleada inmediatamente para la propulsión de ningún buque: su peso excesivo y su escasa potencia eran inconvenientes difícilmente soslayables.

En 1736, Jonathan Hulls, de Gloucestershire (Gran Bretaña), patentó un remolcador con ruedas, con máquina de Newcomen: el proyecto jamás llegó a construirse, pero sus detalles son conocidos en la actualidad.

A partir de mediados del siglo XVIII surgirían muchas ideas y patentes no sólo relacionadas con la fuente de energía, sino con el sistema de propulsión a base de remos, ruedas de paletas, hélices o chorros de agua.

El primer éxito se produjo en 1783, cuando un vapor a ruedas llamado Pyroscaphe remontó el río Saona (Francia) durante quince minutos.

El buque había sido proyectado por el marqués de Jouffroy d’Abbans, con la ayuda del conde Charles M. de Follenay (anteriormente Jouffroy había construido una embarcación con una máquina de dos cilindros de tipo Newcomen, pero la experiencia fracasó).

La máquina montada en el Pyroscaphe era de construcción moderna, con un único cilindro horizontal y doble efecto (James Watt construyó también una máquina de doble efecto que entró en funcionamiento en aquel mismo año).

Jouffroy hizo una maqueta de la embarcación, que se conserva en el Musée de la Marine de París, pero la construcción a tamaño natural se vio entorpecida primero por la falta de dinero y luego por la Revolución francesa.

Podemos asegurar que el barco de vapor que cumplió la hazaña más espectacular fue construido por Oliver Evans, un cafetero de Philadelfia.

Sus esfuerzos se encaminaron en lograr un vehículo que pudiera marchar tanto en el agua como en la tierra.

Necesitaba una máquina que pudiera accionar de igual modo ruedas de paleta y las ruedas de un carro, y que fuese más pequeña que una máquina de Watt.

¿Pero cómo conseguir suficiente energía de una máquina más pequeña?.

Para la solución bastó con determinar los principios básicos.

 Oliver Evans: Ingeniero y hombre de negocios estadounidense enraizado comercialmente en Filadelfia. Fue uno de los primeros estadounidenses en construir motores de vapor y un defensor del vapor a alta presión.

La máquina atmosférica de Newcomen utilizaba vapor para crear un vacío en un cilindro pero no para empujar los pistones. La máquina de movimiento alternativo de Watt usaba vapor pan empujar el pistón.

Evans pensó que cuanto más alta fuese la temperatura, más fuerte sería el bombardeo de vapor sobre las cabezas de los pistones.

La idea de Evans fue darle más presión al vapor me dianíe elevación de la temperatura y la inyección del vapor a cada extremo del cilindro.

De esta manera podría acelerar el movimiento del pistón, multiplicando la energía disponible hasta el punto de lograr que la máquina fuese más pequeña y propor cionase mayor potencia.

Evans anunció luego que pondría su nueva máquina sobre ruedas para hacerla ir a vapor desde el centro de la calle del Mercado a la orilla del río Delaware, donde las paletas movidas por el vapor se transformarían en un barco de vapor.

Miles de curiosos de Philadelfia acudieron a presenciar este sensacional espectáculo de un carro anfibio de vapor que realmente andaba tanto por tierra como en el agua. Pero fue verlo y olvidarlo.

El monstruo era demasiado raro para que el público lo aceptara. Con sus eruptos, el humo daba más la impresión de peligro que de utilidad.

A Oliver Evans debe reconocérsele el honor de haber obtenido la primera patente estadounidense por un coche de autopropulsión.

El monstruo de 21 toneladas fue el primer automóvil.

Si observamos la composición de la marina británica (que en el siglo XIX era la más importante y la más avanzada del mundo) veremos que en 1820 había sólo 34 vapores frente a unos 22.000 veleros y en 1850 poco más de un millar de vapores contra más de 25.000 embarcaciones de vela: el número de vapores no sobrepasó al de velero: hasta la primera década del siglo XX.

El Buque «Charlotte Dundas» experiencia que sirvió para demostrar que el buque de vapor era posible.

Robert Fulton estaba en París, tratando de vender a Napoleón su submarino que acababa de inventar.

El embajador de Estados Unidos convenció finalmente al joven Fulton, a la sazón un conocido pintor y a la vez aprendiz de James Watt, de que debía construir un buque de vapor en el Sena.

Discononforme con su obra, Fulton viajó a Escocia para estudiar un nuevo barco de vapor que acababa de iniciar sus viajes diarios por el río Clyde.

Fortificado con su nuevo conocimiento, Fulton regreso a Nueva York y construyó el «Clermont», que marcó una etapa en la historia de la navegación de por con su memorable viaje por el Hudson.

Esta vezel público aceptó la navegación de vapor sin reservas, convirtiéndola en una lucrativa actividad mercantil.

Robert Fulton A finales de 1803, Robert Fulton lanzó al Sena un barco cuyo propulsor era una rueda con paletas, movida por una máquina de vapor, fue mal acogido en Francia, y Fulton prosiguió sus experimentos en Estados Unidos, en 1807 bota su vapor Clermont.

Fulton recorrió en él los 240 Km. que separan Nueva York de Albany surcando el río Hudson. Con este mismo barco, se establecería el primer servicio regular a vapor.

Sena barco a vapor

Los inconvenientes del vapor aplicado a la navegación eran evidentes. Las calderas resultaban peligrosas para los cascos de madera de los barcos, tanto por el riesgo de incendio como por las consecuencias de sus vibraciones.

Por otra parte, eran de funcionamiento harto irregular y requerían una gran carga de combustible: en uno de sus primeros viajes, el Real Fernando, el primer buque de vapor español, consumió más carbón del que se había calculado y hubo de detenerse en medio del Guadalquivir y enviar una barca a buscar combustible a una venta cercana al río.

Y en cuanto a la marina de guerra, el vapor no fue aplicable más que un vez que se hubo perfeccionado la hélice, ya que las ruedas propulsoras eran muy vulnerables a la artillería.

Las primeras líneas de navegación con buques de vapor se destinaron a cubrir trayectos fluviales, donde las embarcaciones de vela resultaban de escasa utilidad, o pequeñas travesías en mares interiores, donde la relativa regularidad que el vapor prestaba su independencia de las condiciones meteorológicas era un factor estimable (lo que explica que se le confiase el correo).

En 1821 se emplearon vapores para la travesía de Dover a Calais y en 1823 para la de Londres a Rotterdam; también en España se destinó el primer buque de vapor a una línea fluvial: el Real Fernando, construido en los astilleros de Triana para la Real Compañía del Guadalquivir, inauguró en el verano de 1871 la línea Sevilla-Sanlúcar-Cádiz.

En las grandes distancias, la vela seguía dominando ampliamente el panorama. En 1839, el Savannah, movido por vapor y velas, viajó de los Estados Unidos a Liverpool en 25 días, pero éste era también el tiempo que invertía normalmente un velero sin el auxilio del vapor, y los clípers lo redujeron todavía a la mitad.

El clíper, que vivió su época dorada entre 1850 y 1870, era un tipo de velero muy ágil y veloz, que alcanzaba espléndidos resultados en travesías largas, como las de Gran Bretaña a América, a la India o a Australia.

Savannah primer barco de vapor que cruzó el Atlántico
En 1819, el Savannah fue el primer barco de vapor que cruzó el Atlántico, en 25 días.

El último de ellos, el Culty Sark, construido en 1869 y activo hasta 1922, se conserva en un dique seco próximo a Londres: era un buque compuesto, con una armazón de hierro y planchas de madera.

Recordarlos también que el segundo tercio del siglo XIX vio producirse un renacimiento de la marina de vela catalana, dedicada precisamente a efectuar travesías transatlánticas; el primer buque de vapor construido en Barcelona, botado en 1849, fue destinado como remolcador en su puerto.

Pero aunque pareciera que la vela podía competir con el vapor, había varias circunstancias que determinarían su derrota en el futuro.

En primer lugar, los perfeccionamientos sucesivos en la propulsión de vapor permitieron una rápida mejora de sus posibilidades, que no estaba al alcance de los constructores de veleros: en 1858, losclípers cruzaban el Atlántico en un tiempo de 12 a 14 días, pero en 1862 el vapor Scotia, de Cunard, lo hizo en 8 días.

En segundo lugar, los buques de madera tenían unas limitaciones insalvables en cuanto a sus posibilidades de aumento de tonelaje, aunque empleasen una armazón de hierro; esto era un grave inconveniente en unos momentos en que se estaba produciendo un fuerte incremento en el tráfico de productos pesados.

Puede apreciarse la importancia de esta diferencia si observamos que el tonelaje medio de un carguero de vapor en la primera mitad del siglo XX venía a ser seis veces vapor que el de los veleros de cien años antes.

Añadamos aún que la construcción de buques metálicos venía a costar de un 70 a un 15 % menos que los construidos de madera, y que los que empleaban el vapor para la propulsión necesitaban tripulaciones más reducidas, lo que condujo a una supresión gradual de las velas auxiliares.

Pero el golpe mortal lo recibirían los veleros en la apertura del canal de Suez, en 1869, ya que esta ruta, que acortaba notablemente los viajes entre Europa y la India o Australia, sólo era utilizable por buques de vapor.

Los veleros trataron hasta el último momento de mantener la competencia, aunque fuese limitándose a tráficos en que no importase mucho la velocidad, perdida ya toda esperanza de superar en esto a los vapores.

En 1902 se botó en Hamburgo el Preussen, un velero gigante (el único que haya llevado cinco palos con seis velas cuadradas en cada uno) que tenía unos 130 m de eslora y necesitaba máquinas auxiliares de vapor para levantar las anclas y manejar la carga. Pero a comienzos del siglo XX la batalla estaba inmediatamente perdida para los veleros, relegados progresivamente a pequeñas rutas de cabotaje.

El carguero de vapor dominaba todas las rutas del globo, ya que su gran tonelaje le permitía desempeñar en el mar funciones equivalentes a las del ferrocarril en las rutas terrestres. Los continentes quedaban enlazados por rutas regulares, rápidas y económicas, al mismo tiempo que el tendido de los cables telegráficos submarinos completaba la unidad del mercado mundial.

A fines del siglo XIX el descenso del coste del transporte de los cereales norteamericanos a Europa (combinándose el abaratamiento de las tarifas ferroviarias y el de los fletes) motivó que el trigo de las praderas americanas llegase a los mercados europeos en condiciones de competir con la producción local.

Costaba menos transportar el grano por mar desde Nueva York a Barcelona que llevarlo en tren desde Zaragoza hasta el puerto del Mediterráneo. Era el signo de una situación enteramente nueva: de la aparición de un mercado mundial, representado por los buques cargueros y los ferrocarriles transcontinentales, que haría surgir una división del trabajo a escala planetaria.

Y, sin embargo, a comienzos del siglo XX, la revolución de los transportes no había hecho más que empezar, ya que en las décadas siguientes se sumarían a ella cambios aún más espectaculares: la aplicación de la electricidad a los ferrocarriles, el desarrollo del motor de combustión interna que permitiría que la carretera recuperase una vida propia e independiente, la aparición de un sistema de comunicación que no precisaban del cable o del alambre, el crecimiento de la aviación, etc.

Pero con todo, como ha dicho el profesor Girard, «el siglo del ferrocarril y el buque de vapor ha significado un período decisivo en la historia del transporte y aun en la historia del mundo».

Cuadro Comparativo De Los Barcos en la Edad Moderna

Balanza de Henry Cavendish Medir la Constante de Gravitacion

Balanza de Henry Cavendish: Constante de Gravitación

Desde hace tiempo, la Universidad de Cambridge ha sido considerada como el hogar de los descubrimientos científicos y matemáticos. El protagonista de mayor envergadura y grandiosidad de esta historia de éxitos científicos fue Isaac Newton, con sus masivas contribuciones a la física y a la matemática. Gran parte del trabajo experimental realizado por él tuvo lugar en sus habitaciones privadas del Trinity College.

Muchos de los grandes científicos de los siglos XVII y XVIII trabajaron en circunstancias similares, siendo, la mayoría de ellos, personas con medios pecuniarios propios que proseguían sus investigaciones por estar profundamente interesados en las causas que entrañaban los fenómenos materiales.

La física misma no fue enseñada en Cambridge como objeto de asignatura universitaria hasta mediados del siglo xix, ya que hasta 1871 —pocos años después de haberse instituido los exámenes en las asignaturas de calor, electricidad y magnetismo— no decidió la Universidad nombrar un profesor de física, al que proporcionaron un aula y un laboratorio.

Las 6.300 libras esterlinas necesarias para su edificación fueron donadas por el jefe de la familia Cavendish, a cuyo antepasado, Enrique Cavendish, se debía la realización de muchos experimentos famosos, en uno de los cuales determinó exactamente la masa de la Tierra. Debido a ello, el nuevo laboratorio recibió el nombre de Cavendish.

Cavendisch La Revolución CientíficaDETERMINAR EL PESO DE NUESTRO PLANETA TIERRA: La maniobra de Maskelyne contra Harrison se recuerda ahora en contra suya. Pero en su posición de astrónomo real estaba involucrado en una empresa científica que lo situó bajo una luz favorable.

Un siglo después de la publicación de los Principia de Newton, todavía quedaba sin realizar un experimento sugerido en el libro: aunque Newton había establecido la existencia de la fuerza de la gravedad, no había podido darle un valor concreto.

Todos los cálculos involucrados en la gravedad estaban basados en la atracción relativa entre objetos de masas diferentes.

El valor que permitiría establecer la fuerza absoluta de la gravedad en cualquier situación dada —la constante gravitatoria— era desconocido.

Newton sugirió que si se suspendía una plomada junto a una montaña, la gravedad de la montaña la empujaría ligeramente fuera de la vertical, y la desviación podría ser lo bastante grande como para ser mensurable.

Si así fuera, la desviación permitiría calcular las masas relativas de la montaña y de la Tierra, y si la masa de la montaña podía ser calculada con una exactitud razonable, entonces sería posible llegar hasta el valor de la masa de la Tierra y, por consiguiente, a la constante de la gravitación. Dado que se conocía el volumen de la Tierra, eso también haría posible determinar la densidad media de la Tierra.

El problema era encontrar una montaña adecuada. Para estimar su masa, tendríamos que saber su densidad media. Y si también había que estimar su volumen, cualquier error se multiplicaría hasta un grado inaceptable.

Así que la montaña necesitaría tener una forma regular para estar bastante seguro de su volumen. A sugerencia de Maskelyne, la Royal Society se lanzó a buscar una montaña conveniente.

La tarea le fue asignada a un amigo superviviente de Maskelyne llamado Charles Mason (el Mason de la línea Mason-Dixon), que regresó informando que había encontrado una montaña hermosamente proporcionada llamada Schiehallion, en las highlands escocesas, que parecía ideal para su propósito.

El estudio de la montaña fue supervisado por el propio Maskelyne, que en 1774 pasó cuatro meses en un campamento al pie de la mole.

Los cálculos se delegaron en un joven matemático llamado Charles Hutton, que dio la primera cifra científicamente calculada de la masa terrestre: 5 x 1021 toneladas métricas (5.000.000.000.000.000.000.000 toneladas).

El cálculo de la masa terrestre era un acontecimiento excitante por sí mismo, pero la importancia del resultado fue inmensamente mayor. Como la teoría de Newton ya había establecido las masas relativas de la Tierra, del Sol, de la Luna y de todos los planetas, ahora era posible calcular sus masas reales. Sólo ciento sesenta y cinco años después de que Galileo apuntase su primer telescopio a los cielos, todo el sistema solar había sido pesado y medido. La astronomía había alcanzado su mayoría de edad.

Maskelyne se sintió justificadamente contento con el resultado de su campaña para calcular la masa de la Tierra, pero otros estaban menos satisfechos. El cálculo sólo había sido posible basándose en suposiciones. La forma delimitada de la montaña y la cuidadosa medición de sus dimensiones aportaban cierta seguridad sobre la estimación de su volumen, pero para llegar a la cifra clave del cálculo —la masa de la montaña— había sido necesario hacer una estimación de su densidad basándose en el tipo de roca que la componía. Si esa estimación resultaba ser incorrecta, la respuesta final también lo sería.

La estimación de Hutton de 5.000 trillones de toneladas sólo era una aproximación útil; pero los científicos pronto empezaron a buscar una forma de conseguir una cifra más exacta. En 1798, otro inglés obtuvo esa medida exacta que todo el mundo estaba buscando… y lo consiguió sin salir de su casa.

Henry Cavendish nació en 1731, en la ciudad francesa de Niza, donde vivía su madre por motivos de salud. Ella murió cuando él tenía dos años. Cavendish se educó en Inglaterra y pasó cuatro  años en la Universidad de Cambridge, pero no consiguió ningún título, ya que era demasiado tímido para enfrentarse a los examinadores.

El ser nieto de dos duques y heredar cierta fortuna de una tía lo convirtió en uno de los hombres más ricos de su tiempo. También fue uno de los más recluidos. Vivía solo, evitaba a sus visitantes y pedía las comidas dejando una nota para su ama de llaves. Llevaba una vida sencilla y nunca le importó el dinero.

En cierta ocasión, su banquero le comentó que poseía en su cuenta corriente el equivalente a 7 millones de euros, y le sugirió que él podría invertirlo para conseguirle el máximo interés. Cavendish le respondió que si volvía a molestarlo, se llevaría su dinero a otro banco.

Cavendish heredó de su padre el interés por la ciencia, y fue su pasión durante sesenta años. No le preocupaba la fama y publicó poco, por lo que muchos de sus descubrimientos no se conocieron hasta después de su muerte. Su nombre se conmemoró en el Laboratorio Cavendish de Cambridge y en el famoso «Experimento Cavendish» que él mismo dirigió.

Éste había sido concebido por su amigo John Michell, clérigo y geólogo perspicaz, que también diseñó el aparato, pero que murió antes de poder realizar el experimento. Cavendish adquirió su equipo, y lo instaló en una de sus casas londinenses.

El aparato era sencillo: Consistía en 2 bolas metálicas, de 30 centímetros! 12 pulgadas de diámetro, suspendidas de un caballete de acero; y 2 bolas más pequeñas de 5 centímetros! 2 pulgadas de diámetro, suspendidas cerca de las primeras y conectadas entre sí por un fino cable de cobre.

Constituía lo que técnicamente se llama una báscula de torsión. Estaba diseñado para medir el movimiento de torsión creado en el alambre por la atracción gravitatoria que ejercían las bolas más grandes sobre las más pequeñas mientras se movían sobre unas poleas que las mantenían suspendidas.

Balanza de Cavendish

Balanza de Cavendish

Para que la proximidad de los investigadores no perturbase el ajuste del equipo, el experimento se dirigió por control remoto. Cavendish utilizó un telescopio, montado fuera del cuarto, para leerla escala graduada minuciosamente que medía el movimiento (una centésima de pulgada) y que se iluminaba mediante un estrecho haz de luz dirigido desde fuera del cuarto.

La gravedad es una fuerza débil, y las mediciones que Cavendísh se proponía realizar eran tan sutiles que casi desafiaban la credulidad. Pero tanto su aparato como él estaban muy capacitados para la tarea, y finalmente propuso que la densidad de la Tierra era de 5,48 veces la densidad del agua. Resultaba un 20 % mayor que lo obtenido en el experimento de Schiehallion, y dentro del 1 % de margen de error que se acepta hoy día.

Tras su muerte se descubrió que había cometido un error en sus cálculos, sin el cual el resultado habría llevado a un 1,5 % de error sobre el valor correcto, pero dado que la atracción que ejercían unas bolas sobre las otras era únicamente de 1!50.000.000 parte de la que la Tierra ejercía sobre ellas, se le puede perdonar la inexactitud.

UN POCO DE HISTORIA…
EL LABORATORIO  CAVENDISH

En 1871, Jacobo Clerk Maxwell fue nombrado para desempeñar el puesto de primer profesor del Cavendish, pero el propio laboratorio no estuvo terminado hasta 1874. Maxwell, antes de ir a Cambridge, se había distinguido por sus trabajos sobre la naturaleza de las ondas luminosas y sobre la teoría cinética de los gases. Mientras estuvo en Cambridge, no añadió gran cosa a sus trabajos originales.

Sin embargo, organizó un laboratorio donde se inculcaba a los alumnos que el trabajo experimental convenientemente orientado constituía la única base de certeza para la física, y creó una escuela de investigación cuyos tipos de experimento y trabajo teórico jugaron un papel decisivo en el nacimiento de la física moderna.

Lord Rayleigh, nombrado en 1879 para suceder a Clerk Maxwell, continuó el trabajo sobre constantes eléctricas iniciado por éste, y extendió ampliamente el campo de los temas de su investigación, desde el telescopio a las ondas sonoras. Cuando Rayleigh, pasados cinco años, abandonó el Cavendish, éste se había convertido en un importante laboratorio de investigación.

Bajo su nuevo director, J. J. Thomson, el laboratorio progresó hasta convertirse en una institución donde se adiestraban o realizaban sus investigaciones los mejores físicos del mundo. Thomson mismo, sin conocérselo aún como gran experimentador, fue capaz de aclarar la mayoría de los secretos del átomo, valiéndose de un simple y primitivo conjunto de aparatos. Descubrió el electrón, lo que proporcionó el primer paso en el desarrollo de la moderna teoría atómica.

Independientemente del trabajo experimental, la institución, que había progresado bajo el mando de Thomson, adquirió renombre universal. Uno de los científicos atraídos por dicha fama fue el joven neozelandés Ernesto Rutherford, quien dio comienzo a sus trabajos de física atómica al colaborar con Thomson en Cavendish,» labor que continuó al trasladarse luego a Toronto y después a Manchester.

Su regreso a Cavendish tuvo lugar en 1918, como sucesor de Thomson en la cátedra de física. La mayoría de sus experimentos, que contribuyeron a explicar la naturaleza de la radiactividad y la estructura del átomo, fueron realizados, según la tradición del laboratorio, con aparatos de sorprendente sencillez.

Sin embargo, a medida que fue desarrollándose la ciencia atómica, el instrumental del Cavendish hubo de transformarse, necesariamente, de un más complicado y avanzado diseño, incluyendo aparatos tales como el equipo para acelerar partículas de J. Cockroft y E, T. S. Walton, y del físico ruso L. P. Kapitza.

Es impresionante la lista de los sabios ganadores de premios Nobel que pasaron por Cavendish durante el período de Thomson y Rutherford; los 50 años abarcados por su dirección combinada señalan una época en la que el laboratorio fue el principal protagonista en el desarrollo de la ciencia nuclear.

A partir de entonces se han mantenido las grandes tradiciones de Cavendish como institución docente y de investigación. A Ernesto Rutherford lo sucedió, en 1938, Guillermo Lorenzo Bragg, y a éste Neville Mott, en 1954. Ambos científicos han realizado notables trabajos sobre la estructura de los sólidos.

Fuente Consultada: Historia de las Ciencias Desiderio Papp y Historias Curiosas de la Ciencia