Principio de Pascal

El Cobalto Propiedades, Características y Aplicaciones

El Cobalto Propiedades, Características y Aplicaciones

Algunos compuestos de cobalto constituyen pigmentos azules fijos, de gran calidad, que han sido empleados durante 4.000 años por diversas civilizaciones. Los asirio-babilonios usaron pinturas de cobalto en sus pequeñas estatuas talladas en madera, y, en tiempos más recientes, los compuestos de cobalto se han utilizado para decorar en azul la porcelana china de Delft, y para teñir de azul oscuro algunos vidrios.

Mineral de Cobalto

A pesar de que el cobalto es todavía valioso como pigmento, su valor en este sentido se ha visto eclipsado, durante los últimos años, por las propiedades del metal en sí, ya que el cobalto es ferromagnéticó, no tan intensamente magnético como el hierro, pero mucho más que la mayoría del resto de los metales.

Este hecho no es sorprendente, puesto que la estructura de los átomos de hierro y cobalto es muy similar. Los imanes fabricados de hierro dulce pierden rápidamente el magnetismo, pero si el hierro se alea con cobalto, la aleación resultante conserva esta propiedad durante un prolongado período de tiempo.

Ciertos imanes permanentes contienen hasta un 50 % de cobalto, empleándose en muchas piezas de aparatos eléctricos. Las aleaciones de cobalto tienen otra importante aplicación comercial basada en que conservan su dureza y filo (poder de corte), incluso a temperaturas elevadas.

De hecho, la mayoría de las herramientas de corte para trabajos a altas temperaturas contienen cobalto. Todavía más resistentes al efecto de ablandamiento de las temperaturas elevadas son las aleaciones de cobalto-cromo-volfranio-carbono, que se emplean también para fabricar herramientas de corte. La mayoría de la producción mundial de cobalto se destina a imanes o a aleaciones de “alta velocidad” (aceros rápidos).

A pesar de que menos de la quinta parte del cobalto producido se emplea bajo la forma de sus compuestos, éstos tienen demasiada importancia para no considerarlos. Los únicos compuestos de cobalto estables son los cobaltosos, en los que el metal presenta valencia 2. Las sales cobálticas (valencia 3) tienden a ser inestables.

La vitamina B12, de gran importancia, es una gran molécula, muy compleja, formada por 183 átomos, de los cuales sólo uno es de cobalto; pero, si falta este átomo resulta imposible que se produzca la vitamina Bu. La deficiencia de vitamina BJ2 en el ganado puede deberse a la ausencia de cobalto, y se corrige tratando el terreno, o los alimentos, con compuestos de aquél.

El óxido de cobalto se emplea en la industria cerámica no sólo como pigmento, sino también como agente de blanqueo. Los productos de alfarería fabricados con arcilla tienen con frecuencia impurezas de hiem , que les comunican un aspecto amarillento por lo que se les da un ligero tinte azul con óxido de cobalto, que oculta el color amarillo, de la misma forma que el añil agregado al lavado de ropa confiere a ésta un aspecto más blanco.

Las sales orgánicas de cobalto se emplean con profusión en pinturas, barnices y tintas para imprimir, a fin de que sequen con rapidez. Dichas sales absorben el oxígeno atmosférico para formar peróxidos, que polimerizan en una estructura de tipo celular, la cual actúa como el papel secante, absorbiendo el aceite remanente y transformando la masa total en un gel.

Los compuestos de cobalto son excelentes catalizadores de numerosas reacciones, hecho que se descubrió, por primera vez, al emplear este tipo de catalizador para obtener metano (CH4) a partir de monóxido de carbono e hidrógeno. En la actualidad, se emplean ampliamente en la industria del petróleo, para transformar moléculas inservibles en otras adecuadas para combustibles.

Debido a que el cobalto se presenta en una gran variedad de minerales y está, en general, mezclado con cobre, plata o níquel, existen diversos procesos para extraerlos, que dependen del tipo de mineral de partida. Los mayores productores de cobalto son Ka-tanga y Rhodesia, donde éste se encuentra asociado al cobre.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°41 El Cobalto y sus propiedades

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas. La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios. Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él. Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte. Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno. En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10. Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía. Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides. Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo. La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

El Disco de Newton Descoposicion de la Luz

El Disco de Newton
Descoposición de la Luz

Kepler describió la armonía de los movimientos de los planetas. Newton, que probablemente nunca leyó sus obras, creó la mecánica celeste, es decir, que explicó el movimiento de los astros y, simultáneamente, las mareas, la caída, etc.

El gran matemático Lagrange dijo: “Hay sólo una ley del universo, y fue Newton quien la descubrió.” En la obra de Newton, jamás igualada por sabio alguno, culminan milenios de esfuerzos de las mentes más ilustres. Su publicación constituye uno de los acontecimientos más notables, no sólo de la historia de la ciencia, sino de toda la historia humana.

Seguimos encarando como Newton la mecánica celeste (las modificaciones introducidas por Einstein sólo se refieren a factores mínimos, dentro de los márgenes de error previstos). Al mismo tiempo que Leibniz, pero independientemente de él, Newton inventó el cálculo diferencial e integral y desarrolló diversas teorías matemáticas. Fue también él quien construyó el primer telescopio a reflexión e inició el estudio experimental de la composición de la luz, fuente de toda la espectroscopia moderna, rama absolutamente indispensable de los estudios físicos y químicos actuales.

En esta nota veremos solamente cómo Newton explicó que la luz que consideramos blanca es, en realidad, una luz compuesta de varios colores. En primer lugar, descompuso la luz solar: alrededor de 1666, mediante un prisma triangular de cristal atravesado por un haz luminoso, obtuvo lo que hoy llamamos un espectro, debido al diferente índice de refracción o desviación de cada uno de los colores que componen la luz blanca.

disco de newton

Es éste el experimento que se representa, en forma simplificada, en la ilustración superior. La división de un rayo de luz en sus componentes, debido a su diferente refracción, se denomina dispersión de la luz. El arco iris se basa en ella; las diminutas gotas de agua actúan como prismas, pero, a veces, el fenómeno natural es bastante más complicado que la experiencia que explicamos, porque intervienen además una o dos reflexiones.

Faltaba luego recomponer la luz blanca mediante la suma de los colores. Esto se consigue mediante un aparato denominado disco de Newton, que se ve en la ilustración inferior. Este disco, pintado con los mismos colores que componen el espectro de la luz blanca, adquiere, si gira muy rápidamente y recibe una iluminación intensa, un color uniformemente blanco.

El disco se hace girar y los colores forman la luz blanca

A medida que aumenta la velocidad del disco se van “sumando” los colores, el matiz general se hace grisáceo y, por último, sólo se observa un circulo uniforme de color blancuzco.

Estos dos experimentos completan, así, la descomposición y la recomposición de la luz blanca, en sus colores fundamentales.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología N°10

Tabla de Radiaciones Electromagneticas Ejemplos

Tabla de Radiaciones Electromagnéticas Ejemplos

Todas las emisión de radiaciones están presentes en los aspectos más variados de nuestra realidad, desde la función clorofílica de las plantas hasta las comunicaciones intercontinentales. Tal variedad de fenómenos determina, con frecuencia, una confusión sobre las particularidades y características de cada tipo de radiación; porque, aun cuando en conjunto sean todas emisiones de ondas sinusoidales, sus frecuencias y longitudes de onda peculiares les permiten desarrollar efectos  determinados.   Así,  los  rayos X,  que tienen  frecuencias muy altas pero cortas longitudes de onda, pueden atravesar perfectamente los tejidos animales y otros diversos materiales.

La radiación electromagnética se propaga en forma de ondas creadas por la oscilación en el espacio de campos eléctricos y magnéticos perpendiculares entre sí y a la dirección de propagación. Todas las ondas electromagnéticas viajan a la misma velocidad en el vacío, la velocidad de la luz c (300.000 Km/seg.), pero los distintos tipos de ondas tienen diferente longitud de onda y diferente frecuencia.

Estas dos magnitudes están relacionadas por la ecuación λ.f=c, de modo que a cada frecuencia le corresponde una única longitud de onda. El espectro completo de radiaciones electromagnéticas comprende una amplia variedad en longitudes de onda, desde las enormes ondas de baja frecuencia tan grandes como la Tierra, hasta los penetrantes rayos gamma, con longitudes más pequeñas que el núcleo de los átomos. Estos distintos tipos de radiación, si bien son producidos y detectados de maneras que les son propias, responden todos a la misma descripción ondulatoria de campos electromagnéticos.

Según la teoría electromagnética, las partículas cargadas aceleradas, como los electrones en una corriente variable dentro de un cable, irradian energía en forma de ondas. Las ondas de radio, de menos de 1010 Hz y longitudes mayores que 1 cm, pueden producirse y detectarse por circuitos eléctricos capaces de producir corrientes variables.

Este tipo de ondas es el que se ha utilizado para transmitir información “sin hilos”, es decir, sin un cable que se extienda entre el transmisor y el receptor de información, desde los famosos experimentos de Hein-rich Hertz en el siglo pasado.

Al igual que la luz visible, las ondas de radio pueden ser reflejadas, refractadas y absorvidas.

En el cuadro siguiente se han reunido, por orden decreciente de frecuencias y creciente de longitudes de onda, los principales tipos de radiaciones que existen; los procesos de emisión, sus causas y medios de detección permitirán catalogar, de modo simple y rápido, las diversas clases de radiaciones, cuya serie, en conjunto, se denomina espectro electromagnético.

Es interesante observar que los receptores sensoriales del hombre sólo perciben las radiaciones de una pequeña zona del espectro (luz visible  y rayos  infrarrojos).

LA RADIACIÓN SE PRODUCE ENPOR FRECUENCIA
(CICLOS/SEG.)
TIPO DE LA RADIACIÓNPUEDE SER
DETECTADA POR
Explosión atómicaNúcleo atómico en oscilación1020Rayos gammaContador Geiger
Tubo de rayos X Trayectoria espiral de un electrón interno1018Rayos XPantalla de rayos X
Lámpara Trayectoria espiral de un electrón externo1016Rayos ultravioleta
Luz visible
Cámara fotográficaOjo
Estufa Trayectoria espiral de un electrón externo1012
1014
Rayos infrarrojos Receptores corporales
Sol Trayectoria espiral de un electrón1010 Micro-ondasPantalla de radar
Circuito oscilanteAntena Oscilación de la Carga En Un Conductor

106

104

Ondasde radio TelevisiónReceptor de radio

 

Ya se sabía que la luz era un movimiento ondulatorio antes de que Maxwell hiciera sus descubrimientos, pero no se había podido establecer de qué tipo era. Maxwell pudo demostrar que las oscilaciones provenían del campo eléctrico y magnético. Las ondas de Hertz tenían una longitud de onda de unos 60 cm, o sea que tenían una longitud de onda mucho más larga que las ondas de luz.

Actualmente reconocemos un espectro de radiación electromagnética que se extiende de  10 elevado a -15 m a 10 elevado a la 9 m.

Se subdivíde en franjas más pequeñas que a veces se solapan.

La ampliación del campo de la observación astronómica de las longitudes de onda visibles a otras longitudes de onda electromagnéticas ha revolucionado nuestro conocimiento del universo.

Las ondas de radio tienen una gama amplia de longitudes de onda, desde unos cuantos milímetros hasta varios kilómetros.

Las microondas son ondas de radio con longitudes de onda más cortas, entre I mm y 30 cm. Se utilizan en el radar y en los hornos de microondas.

Las ondas del infrarrojo de diferentes longitudes de onda son irradiadas por cuerpos a determinadas temperaturas. (Cuerpos a temperaturas más altas irradian bien ondas visibles, bien del ultravioleta).

La Tierra y su atmósfera irradian ondas del infrarrojo con longitudes de onda medías de unos 10 micrometros (u m) o I0″5 m (I u m = 10-6 m) a una temperatura media de 250K (-23°C).

Las ondas visibles tienen longitudes de onda de 400-700 nanómetros (nm) y  1 nm = 10 elevado a -9 m). El punto más alto de la radiación solar (con una temperatura de 6000K/6270°C) se alcanza a una longitud de onda de unos 550 nm, que es donde el ojo humano es más sensible.

Las ondas ultravioletas tienen longitudes de onda de entre unos 380 nm hasta 60 nm. La radiación de estrellas más bien calientes (más de 25.000K/25.000°C) se desvía hacia las zonas violetas y ultravioletas del espectro.

Los rayos X tienen longitudes de onda de aprox. 10 nm a 10 elevado a -4 nm.

Los rayos gamma tienen longitudes de onda menores a 10″‘1 m. Los emiten determinados núcleos radioactivos y se desprenden en algunas reacciones nucleares.

Nótese que los rayos cósmicos que continuamente bombardean la Tierra desde el espacio exterior no son ondas electromagnéticas, sino protones y partículas x (es decir, núcleos de átomos de hidrógeno y helio; de alta velocidad, además de algunos núcleos más pesados.

frecuencias y longitud de onda del espectro electromagneticoHaz Clic Para Otra Tabla

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

Electrólisis:Descomposición Del Agua en Oxígeno e Hidrógeno

LA  ELECTRÓLISIS  DEL AGUA: El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno.

Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos.

No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene.

Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—).

Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino.

Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad.

Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno.

En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la “Schmidt-Oerlikon” que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

Conceptos Básicos de Lubricantes
Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES: Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que” tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

Biografía de Evangelista Torricelli Fisico Presion Atmosferica

Biografía de Evangelista Torricelli
Físico Que Investigó Presión Atmosférica

Físico y matemático italiano que descubrió la forma de medir la presión atmosférica, para lo cual ideó el barómetro de mercurio. Por este invento pasó a la posteridad. En 1644 publicó su obra Opera geométrica (Obra geométrica), donde expuso sus hallazgos sobre fenómenos de mecánica de fluidos y sobre el movimiento de proyectiles.

Fruto de sus observaciones, perfeccionó el microscopio y el telescopio. Asimismo, sus aportes a la geometría fueron determinantes en el desarrollo del cálculo integral

BIOGRAFÍA TORRICELLI Evangelista (1608-1647)
Físico y matemático italiano nacido el 15 de octubre de 1608 en Faenza y fallecido enFlorencia el 25 de octubre de 1647. Sus padres fueron Gaspare Torricelli y Caterina Angetti.

Era una familia humilde, Gaspare era obrero textil. Evangelista fue el mayor de los tres hijos del matrimonio.

Sus padres notaron el talento de su hijo y como no tenían recursos para educarlo lo enviaron a estudiar con su tío, el Hermano Jacopo, un monje Camaldolese, al colegio Jesuita entre tos años 1624-1626 en Faenza.

Su tío observa el talento de Evangelistay arregla que estudie privadamente con otro monje Camatdolese, Benedetto Castetli, de quien se convierte en ayudante hasta 1632. Castelli enseñaba en la Universidad de Sapienza, en Roma.

Torricelli no fue alumno de esa universidad. Torricellireemplazaba a Castelti cuando estaba ausente de Roma.

El 11 de septiembre de 1632 Castelli escribió a Galileo una carta en la cual informa sobre los notables progresos científicos de Evangelista. Galileo te contesta a Castelli, pero como éste no estaba en Roma, su secretario Torricelli aprovecha para contestar la carta y explicarle directamente a Galileo sobre sus trabajos matemáticos.

Durante los siguientes nueve años (1632-1641), fue secretario de Giovanni Ciampoli, amigo de Galileo y de otros profesores.

No se sabe exactamente donde vivió Torricelli durante estos años, pero como Ciampoli fue gobernador de muchas ciudades, debe haber vivido en distintos períodos en Montatto, Norcia, San Severino y Fabriano.

Para 1641 Torricelli había completado gran parte del trabajo que iba a publicar en tres partes en 1644, Opera geométrica. La segunda parte del trabajo es el De motu gravium, que es un tratado sobre el movimiento parabólico de los proyectiles. Torricelli pidió opinión a Castelti sobre tratado en 1641.

Castelti estaba tan impresionado que él mismo te escribió a Gatileo, que vivía en Arcetri, cerca de Florencia, vigilado por la Inquisición. En abril de 1641 Castelli fue de Roma a Venecia y de paso se detuvo en Arcetri para entregarte a Galileo una copia del manuscrito de Torricelli y le sugiere que lo contrate como asistente.

Mientras Castelli viajaba, Torricelli permanecía en Roma a cargo de sus clases. Galileo aceptó la propuesta de Castelli y el 10 de octubre de 1641, Torricelli llegó a La casa de Galileo en Arcetri.

Se convirtió así en su discípulo (1641). Permaneció viviendo con Galileo durante su ceguera, cuidándolo hasta el día de su muerte en enero de 1642 y, un año más tarde, lo sucedió en el cargo de matemático de la corte del Gran Duque Fernando II de Toscana, pero no recibió el titulo de Filósofo de la Corte, que tenía Galileo.

Torricelli mantuvo este cargo hasta su muerte, viviendo en el palacio ducal en Florencia.

Otro discipulo de Castelli era Cavalieri, que era titular de la cátedra de Matemática en Bolonia. Torricelli estudió los métodos de Cavalieri y al principio desconfió de ellos. Pero pronto se convenció de su exactitud y comenzó a profundizarlos.

Uno de sus resultados más importante tiene que ver con la extensión del método de los indivisibles de Cavaliería los indivisibles curvo.

Para 1641 había probado un número impresionante de resultados usando el método que publicaría tres años después. Examinó los cuerpos tridimensionales que se obtienen al rotar un polígono regular alrededor de un eje de simetría.

También calculó el área y centro de gravedad de la cicloide.

El tema de La cicloide surgió de una disputa con Roberval. En una carta fechada en octubre de 1643 Le informa a Roberval sobre sus puntos de vista y resultados sobre el centro de gravedad de la parábola, la superficie de la cicloide y su historia, el sólido de revolución generado por una cónica y un sólido hiperbólico.

No hay duda que ambos matemáticos llegaron a descubrimientos similares sobre La cicloide pero que ninguno influyó sobre La ideas del otro.

Otra contribución de Torricelli fue en 1640, la resolución del problema de Fermat: dados tres puntos en un plano, encontrar un Cuarto punto tal que la suma de las distancias a los tres dados sea la menor posible (conocido como el centro isogónico del triángulo). Torricelli fue la primera persona en crear un vacío sustentable. su nombre se asocia a La invención del barómetro de mercurio en 1644 para La medición de La presión atmosférica.

Este experimento, además de la importancia de sus aplicaciones prácticas, permitía demostrar la inconsistencia de Las afirmaciones de los que aún seguían las teorías aristotélicas sobre la imposibilidad de la existencia de vacío, ya que por encima de la columna de mercurio de su barómetro se producía dicho vacío.

En De motu gravium también probó que la velocidad de salida de un liquido a través de un pequeño orificio en la pared delgada de un recipiente es proporcional a la raíz cuadrada de la altura entre el orificio y base del recipiente, enunciado conocido como el Teorema de Torricelli. Algunos lo consideran el fundador de la hidrodinámica.

En esta publicación estudia el movimiento de un proyectil, desarrolla las ideas de Galileo sobre la trayectoria parabólica de un proyectil lanzado horizontalmente y da una teoría sobre los proyectiles disparados en cualquier ángulo.

Por otra parte, construyó los mejores anteojos de la época y hasta ahora, las lentes preparadas por él, se destacan por su perfección.

También construyó telescopios, microscopios. Aparentemente aprendió estas técnicas mientras vivió con Galileo. Torricelli ganó mucho dinero por sus habilidades en la construcción de lentes durante la última parte de su vida en Florencia y recibió muchos regalos del Gran Duque.
En 1647 Torricelli; contrajo fiebre tifoidea y murió a tos 39 años.

Torricelli, físico

“Yo afirmo que vivimos en un mar de aire”
El mérito de Torricelli fue haber sido el primero en medir el valor de la presión que
la atmósfera imprime a la superficie terrestre.

Por qué se lo recuerda
LA ACEPTACIÓN DEL VACIO
Demostró que los efectos atribuidos al “horror del vacío” se debían en realidad a la presión del airé. Inventó el barómetro de mercurio.

PREDICCIÓN DEL TIEMPO
Aunque Torricelli nunca lo supo, el descubrimiento del barómetro iba a ser muy importante para pronosticar el tiempo.

APARATOS DE ÓPTICA
Construyó telescopios superiores a los conocidos hasta entonces y otros aparatos de óptica. También desarrolló el teorema que lleva su nombre, acerca del movimiento de los fluidos.
Medición atmosférica

PARA SABER MAS…
La conquista del vacío .

Hasta el siglo XVII era imposible aceptar la idea de que el vacío era parte del espacio. Aristóteles había intentado sin éxito verificar el peso del aire y durante mucho tiempo el pensamiento imperante afirmaba que el vacío era, sobre todo, un concepto inconsistente. Sin embargo, el camino de la investigación y la experimentación, iniciado en gran medida por los descubrimientos de Galileo, Newton y Torricelli, cambió de manera radical el punto de vista de la ciencia.

Evangelista Torricelli, discípulo de Galileo, fue quien demostró que el aire es un fluido gaseoso que nos rodea, nos envuelve y nos presiona.

Su aporte fue muy importante ya que muchos fenómenos que ocurrían en la naturaleza hasta entonces extraños-eran derivados simplemente de la presión atmosférica.

¿Qué hizo Torricelli? Llenó un tubo con mercurio, lo invirtió y sumergió la parte abierta en un recipiente con más mercurio. El nivel de éste en el tubo descendió algunos centímetros, lo qué dio lugar en el extremo cerrado a un espacio sin mercurio, que no podía estar sino vacío.

Al principio muchos hombres de ciencia de la época se negaron a aceptar la teoría de Torricelli, verificada por el barómetro que él mismo había construido. Tuvo que transcurrir un tiempo para que la sociedad reconociera que por sobre la columna de mercurio operaba el propio peso de la atmósfera que rodea la Tierra.

Nuevos descubrimientos
Las experiencias de Torricelli fueron conocidas en Francia a través de su correspondencia con el religioso Marín Mersenne, quien a su vez estaba en contacto con otros investigadores que se sintieron entusiasmados a seguir explorando el fenómeno del espacio vacío.

Así fue como el físico Blaise Pascal (1623-1662), en Francia, reveló las variaciones de la presión atmosférica según las condiciones climáticas y la altura. A su vez Robert Boyle (1627-1691), en Inglaterra, llevó a cabo diversos estudios sobre la elasticidad del aire.

La carrera por perfeccionar los instrumentos que se usan para conocer el macro y microcosmos continúa hasta la actualidad. Hoy, al escuchar las noticias meteorológicas sabemos que las altas y bajas presiones sobre determinadas zonas del planeta tienen una influencia muy importante sobre el estado del tiempo y gran parte se la debemos a Torricelli, el físico italiano.

Fuente Consultada: Gran Atlas de la Ciencia National Geographic

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 “Una mente maravillosa”, “A beautiful Mind” es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo “Senior” o “Junior” (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

“Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro”.

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  “Men of Mathematics” (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada “Juegos No-Cooperativos“. Obsérvese que el libro inicial de la teoría de juegos, “Theory of Games and Economic Behavior” de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

“.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.”

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

“Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual”.

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

Principio de Bernoulli Teorema de la Hidrodinamica Resumen Teoria

Principio de Bernoulli – Teorema de la Hidrodinámica

INTRODUCCIÓN GENERAL:
Se denominan fluidos aquellos cuerpos cuyas moléculas tienen entre sí poca o ninguna coherencia y toman la forma de la vasija que los contiene, como los líquidos y los gases. Muchos de dichos cuerpos fluyen con bastante facilidad y raramente permanecen en reposo. La rama de la ciencia que trata de los fluidos en movimiento se conoce con el nombre de Hidrodinámica.

Como ejemplo, se puede citar el agua que circula por una tubería, o la corriente de aire que se origina sobre las alas de un avión en vuelo. El comportamiento de un fluido en movimiento es, naturalmente, más complicado que el de un fluido en reposo.

En Hidrostática (rama que trata de los fluidos en reposo), lo más importante de conocer, acerca del fluido, es la presión que actúa sobre el mismo. Un buzo experimenta tanto mayor aumento de presión cuanto mayor es la profundidad a la que está sumergido en el agua; la presión que soporta a una determinada profundidad es, simplemente, la suma del peso del agua por encima de él, y la presión del aire sobre la superficie del agua. Cuando el agua se pone en movimiento, la presión se modifica.

Es casi imposible predecir cuál es la presión y la velocidad del agua, por lo que el estudio de los fluidos en movimiento es muchísimo más complicado que el de los fluidos en reposo. Un buzo que se mueve a lo largo, y en el mismo sentido que una corriente submarina, probablemente no nota que la presión alrededor de él cambia. Pero, de hecho, al ponerse el agua en movimiento, la presión disminuye y, cuanto mayor es la velocidad, mayor es la caída de presión. Esto, en principio, sorprende, pues parece que un movimiento rápido ha de ejercer una presión mayor que un movimiento lento.

El hecho real, totalmente opuesto, fue primeramente expresado por el matemático suizo Daniel Bernoulli (1700-1782). Si un fluido comienza a moverse, originando una corriente continua, debe existir alguna causa que origine dicho movimiento. Este algo es una presión. Una vez el fluido en movimiento, la presión cambia, bien sea aumentando o disminuyendo. Supongamos que aumenta. Al aumentar la presión, crece la velocidad del fluido, que origina un nuevo aumento en la presión; este aumento hace crecer el valor de la velocidad, y así sucesivamente.

PRINCIPIO DE LA HIDRODINÁMICA: EXPLICACIÓN RESUMIDA DE LA TEORÍA:

A continuación estudiaremos la circulación de fluidos incompresibles, de manera que podremos explicar fenómenos tan distintos como el vuelo de un avión o la circulación del humo por una chimenea. El estudio de la dinámica de los fluidos fue bautizada hidrodinámica por el físico suizo Daniel Bernoulli, quien en 1738 encontró la relación fundamental entre la presión, la altura y la velocidad de un fluido ideal.

El teorema de Bernoulli demuestra que estas variables no pueden modificarse independientemente una de la otra, sino que están determinadas por la energía mecánica del sistema.

Supongamos que un fluido ideal circula por una cañería como la que muestra la figura. Concentremos nuestra atención en una pequeña porción de fluido V (coloreada con celeste): al cabo de cierto intervalo de tiempo Dt (delta t) , el fluido ocupará una nueva posición (coloreada con rojo) dentro de la Al cañería. ¿Cuál es la fuerza “exterior” a la porción V que la impulsa por la cañería?

Sobre el extremo inferior de esa porción, el fluido “que viene de atrás” ejerce una fuerza que, en términos de la presiónp1, puede expresarse corno p1 . A1, y está aplicada en el sentido del flujo. Análogamente, en el extremo superior, el fluido “que está adelante” ejerce una fuerza sobre la porción V que puede expresarse como P2 . A2, y está aplicada en sentido contrario al flujo. Es decir que el trabajo (T) de las fuerzas no conservativas que están actuando sobre la porción de fluido puede expresarse en la forma:

T=F1 . Dx1– F2. Dx2 = p1. A1. Dx1-p2. A2. Ax2

Si tenemos en cuenta que el fluido es ideal, el volumen que pasa por el punto 1 en un tiempo Dt (delta t) es el mismo que pasa por el punto 2 en el mismo intervalo de tiempo (conservación de caudal). Por lo tanto:

V=A1 . Dx1= A2. Dx2 entonces T= p1 . V – p2. V

El trabajo del fluido sobre esta porción particular se “invierte” en cambiar la velocidad del fluido y en levantar el agua en contra de la fuerza gravitatoria. En otras palabras, el trabajo de las fuerzas no conservativas que actúan sobre la porción del fluido es igual a la variación de su energía mecánica Tenemos entonces que:

T = DEcinética + AEpotencial = (Ec2 — Ec1) + (Ep2 — Ep1)

p1 . V — P2 . V = (1/2 .m . V2² — 1/2 . m. V1²) + (m . g . h2 — m . g . h1)

Considerando que la densidad del fluido está dada por d=m/V podemos acomodar la expresión anterior para demostrar que:

P1 + 1/2 . d. V1² + d . g. h1= P2 + 1/2 . d. V2² + d . g . h2

Noten que, como los puntos 1 y 2 son puntos cualesquiera dentro de la tubería, Bernoulli pudo demostrar que la presión, la velocidad y la altura de un fluido que circula varian siempre manteniendo una cierta cantidad constante, dada por:

p + 1/2. d . V² + d. g. h = constante

Veremos la cantidad de aplicaciones que pueden explicarse gracias a este teorema.

Fluido humano. Una multitud de espectadores pretende salir de una gran sala de proyecciones al término de la función de cine. El salón es muy ancho, pero tiene abierta al fondo sólo una pequeña puerta que franquea el paso a una galería estrecha que conduce hasta la calle. La gente, impaciente dentro de la sala, se agIomera contra la puerta, abriéndose paso a empujones y codazos. La velocidad con que avanza este “fluido humano” antes de cruzar la puerta es pequeña y la presión es grande. Cuando las personas acceden a la galería, el tránsito se hace más rápido y la presión se alivia. Si bien este fluido no es ideal, puesto que es compresible y viscoso (incluso podría ser turbulento), constituye un buen modelo de circulación dentro de un tubo que se estrecha. Observamos que en la zona angosta la velocidad de la corriente es mayor y la presión es menor.

APLICACIONES:

EL TEOREMA DE TORRICELLI

Consideremos un depósito ancho con un tubo de desagote angosto como el de la figura. Si destapamos el caño, el agua circula. ¿Con qué velocidad? ¿Cuál será el caudal? En A y en B la presión es la atmosférica PA=PB=Patm. Como el diámetro del depósito es muy grande respecto del diámetro del caño, la velocidad con que desciende la superficie libre del agua del depósito es muy lenta comparada con la velocidad de salida, por lo tanto podemos considerarla igual a cero, VA = 0

La ecuación de Bernoulli queda entonces:

d. g. hA + pA= 1/2 . d. hB + pB

entonces es:

g . hA = 1/2 . vB² + g. hB de donde VB²= 2. .g . (hA-hB)

de donde se deduce que:

VB² = 2. g(hA – hB)

Este resultado que se puede deducir de la ecuación de Bernoulli, se conoce como el teorema de Torricelli, quien lo enunció casi un siglo antes de que Bernoulli realizara sus estudios hidrodinámicos. La velocidad con que sale el agua por el desagote es la misma que hubiera adquirido en caída libre desde una altura hA, lo que no debería sorprendernos, ya que ejemplifica la transformación de la energía potencial del líquido en energía cinética.

EL GOL OLÍMPICO

A: Una pelota que rota sobre si misma arrastra consigo una fina capa de aire por efecto dei rozamiento.

B: Cuando una pelota se traslada, el flujo de aire es en sentido contrario al movimiento de la pelota.

C: Si la pelota, a la vez que avanza en el sentido del lanzamiento, gira sobre sí misma, se superponen los mapas de las situaciones A y B. El mapa de líneas de corrientes resulta de sumar en cada punto los vectores VA y VB. En consecuencia, a un lado de la pelota, los módulos de las velocidades se suman y, al otro, se restan. La velocidad del aire respecto de la pelota es mayor de un lado que del otro.

D: En la región de mayor velocidad, la presión (de acuerdo con el teorema de Bernoulli) resulta menor que la que hay en la región de menor velocidad. Por consiguiente, aparece una fuerza de una zona hacia la otra, que desvía la pelota de su trayectoria. Éste es el secreto del gol olímpico.

EL AERÓGRAFO

Las pistolas pulverizadoras de pintura funcionan con aire comprimido. Se dispara aire a gran velocidad por un tubo fino, justo por encima de otro tubito sumergido en un depósito de pintura. De acuerdo con el teorema de Bernoulli, se crea una zona de baja presión sobre el tubo de suministro de pintura y, en consecuencia, sube un chorro que se fragmenta en pequeñas gotas en forma de fina niebla.

FUERZA DE SUSTENTACIÓN: Cualquier cuerpo que se mueve a través del aire experimenta una fuerza que proviene de la resistencia del aire. Ésta puede dividirse en dos componentes que forman entre sí un ángulo recto. A uno se lo llama sustentación y se dirige verticalmente hacia arriba. El otro, llamado resistencia, actúa horizontalmente y en sentido opuesto a la dirección de desplazamiento del cuerpo. La fuerza de sustentación se opone al peso y la resistencia se opone al movimiento del
cuerpo. Para que un cuerpo pueda volar la fuerza de sustentación debe superar al peso y la resistencia debe ser tan reducida que no impida el movimiento.

Para obtener un resultado óptimo necesitamos un cuerpo con una alta relación entre la fuerza de sustentación y la resistencia. El índice más elevado se obtiene mediante un cuerpo diseñado especialmente que se denomina “perfil aerodinámico”. Por razones prácticas no es posible obtener un perfil aerodinámico perfecto en un aeroplano pero las alas se diseñan siempre de modo que suministren la sustentación que sostiene a la máquina en el aire. En un corte transversal un perfil aerodinámico exhibe una nariz redondeada, una superficie superior fuertemente curvada, la inferior más achatada y una cola aguzada.

El perfil se inclina formando un ligero ángulo con la dirección del flujo de aire. La fuerza ascendente se obtiene de dos modos: por encima del perfil aerodinámico el aire se mueve más rápido a causa de su forma curva. Por el principio descubierto por Bernoulli y resumido en una ecuación matemática, la presión de un fluido disminuye en relación con el aumento de su velocidad y viceversa.

De ese modo, la presión del aire que se mueve en la parte superior del perfil decrece creando una especie de succión que provoca el ascenso del perfil aerodinámico. Por otra parte el aire que fluye bajo el perfil angulado aminora su velocidad de manera que la presión aumenta. Esta acción eleva el perfil aerodinámico, dándole mayor poder de sustentación. La fuerza de sustentación total depende del tipo de perfil, de la superficie de las alas, de la velocidad del flujo y de la densidad del aire.

La fuerza ascensional disminuye con la altitud, donde el aire es menos denso, y aumenta con el cuadrado de la velocidad del aeroplano y también con la mayor superficie de las alas. El ángulo que forma el perfil aerodinámico con el flujo de aire se llama ángulo de incidencia. A mayor ángulo, mayor fuerza ascensorial hasta llegar a un punto crítico, después del cual la fuerza ascensorial diminuye bruscamente. El flujo de aire que hasta el momento había sido suave, se descompone repentinamente en forma de remolinos. Cuando ello ocurre se dice que el avión se ha desacelerado, y de ser así el avión comienza a caer, pues las alas ya no lo pueden sostener. Es muy peligroso en caso que al avión se encuentre cerca de la tierra.

diagrama fuerza ascensorial

El diagrama muestra una sección en corte del ala de un aeroplano, según un diseño aerodinámico. El aire fluye por encima y por debajo del ala, pero fluye más rápido por encima de la parte superior porque está más curvada, presentando un largo mayor. El flujo de aire más rápido ejerce menos presión; además, se produce otra presión hacia arriba, resultante de la menor velocidad del aire por debajo del ala, que la proveerá de fuerza ascensional. Ésta es la base del vuelo del aeroplano.

Fuente Consultada: Enciclopedia NATURCIENCIA Tomo 1

Teorema Fundamental de la Hidrostática Demostración del Principio

Teorema de la Hidrostática
Demostración del Principio de Arquímedes

El teorema fundamental de la hidrostática

¿Por qué las paredes de un dique van aumentando su espesor hacia el fondo del lago? ¿Por qué aparecen las várices en las piernas?

Es un hecho experimental conocido que la presión en el seno de un líquido aumenta con la profundidad. Busquemos una expresión matemática que nos permita calcularla. Para ello, consideremos una superficie imaginaria horizontal S, ubicada a una profundidad h como se muestra en la figura de la derecha.

La presión que ejerce la columna de líquido sobre la superficie amarilla será:

p = Peso del líquido/Area de la base

Con matemática se escribe: p = P/S = (d . V)/S=(d . S . h)/S= d . h (porque la S se simplifican)

donde p es el peso específico del líquido y V es el volumen de la columna de fluido que descansa sobre la superficie S.

Es decir que la presión que ejerce un líquido en reposo depende del peso específico (p) del líquido y de la distancia (h) a la superficie libre de éste.

Si ahora consideramos dos puntos A y B a diferentes profundidades de una columna de líquido en equilibrio, el mismo razonamiento nos permite afirmar que la diferencia de presión será:

PA —PB = p . hA— d . hB

 Este resultado constituye el llamado teorema fundamental de la hidrostática:

La diferencia de presión entre dos puntos dentro de una misma masa líquida es el producto del peso específico del líquido por la distancia vertical que los separa.

Ésta es la razón por la cual dos puntos de un fluido a igual profundidad estarán a igual presión. Por el contrario, si la presión en ambos puntos no fuera la misma, existiría una fuerza horizontal desequilibrada y el líquido fluiría hasta hacer que la presión se igualara, alcanzando una situación de equilibrio.

Hasta aquí sólo hemos encontrado la expresión de la presión que ejerce el líquido sobre un cuerpo —imaginario o no— sumergido en una determinada profundidad h. Ahora bien, ¿cuál es la presión total ejercida en el cuerpo? Si tenemos en cuenta que, probablemente, por encima del líquido hay aire (que también es un fluido), podemos afirmar que la presión total ejercida sobre el cuerpo es debida a la presión de la columna del líquido más la presión que ejerce el aire sobre la columna. Es decir:

P = Paire + Plíquido = Patmosférica +  d . h

Este resultado tiene generalidad y puede ser deducido del teorema fundamental de la hidrostática. Veamos cómo. Si consideramos que el punto B se encuentra exactamente en la superficie del líquido, la presión en A es:

PA= PB+ d . Ah = Psuperficie + P. (hA-hB) = Patmosférica + d . h

Los vasos comunicantes son recipientes comunicados entre sí, generalmente por su base. No importa cuál sea la forma y el tamaño de los recipientes; en todos ellos, el líquido alcanza la misma altura.

Cuando tenemos un recipiente vertical conteniendo un liquido y le hacemos perforaciones en sus paredes, las emisiones del liquido de los agujeros de la base tendrán mayor alcance que las emisiones de arriba, ya que a mayor profundidad hay mayor presión.

EL EMPUJE: PRINCIPIO DE ARQUIMEDES  (Ver Su Biografía)

Resulta evidente que cada vez que un cuerpo se sumerge en un líquido es empujado de alguna manera por el fluido. A veces esa fuerza es capaz de sacarlo a flote y otras sólo logra provocar una aparente pérdida de peso. Pero, ¿cuál es el origen de esa fuerza de empuje? ¿De qué depende su intensidad?

Sabemos que la presión hidrostática aumenta con la profundidad y conocemos también que se manifiesta mediante fuerzas perpendiculares a las superficies sólidas que contacta. Esas fuerzas no sólo se ejercen sobre las paredes del contenedor del líquido sino también sobre las paredes de cualquier cuerpo sumergido en él.

Distribución de las fuerzas sobre un cuerpo sumergido

Imaginemos diferentes cuerpos sumergidos en agua y representemos la distribución de fuerzas sobre sus superficies teniendo en cuenta el teorema general de la hidrostática. La simetría de la distribución de las fuerzas permite deducir que la resultante de todas ellas en la dirección horizontal será cero. Pero en la dirección vertical las fuerzas no se compensan: sobre la parte superior de los cuerpos actúa una fuerza neta hacia abajo, mientras que sobre la parte inferior, una fuerza neta hacia arriba. Como la presión crece con la profundidad, resulta más intensa la fuerza sobre la superficie inferior. Concluimos entonces que: sobre el cuerpo actúa una resultante vertical hacia arriba que llamamos empuje.

¿Cuál es el valor de dicho empuje?

Tomemos el caso del cubo: la fuerza es el peso de la columna de agua ubicada por arriba de la cara superior (de altura h1). Análogamente, F2 corresponde al peso de la columna que va hasta la cara inferior del cubo (h2). El empuje resulta ser la diferencia de peso entre estas dos columnas, es decir el peso de una columna de líquido idéntica en volumen al cubo sumergido. Concluimos entonces que el módulo del empuje es igual al peso del líquido desplazado por el cuerpo sumergido.

Con un ejercicio de abstracción podremos generalizar este concepto para un cuerpo cualquiera. Concentremos nuestra atención en una porción de agua en reposo dentro de una pileta llena. ¿Por qué nuestra porción de agua no cae al fondo de la pileta bajo la acción de su propio peso? Evidentemente su entorno la está sosteniendo ejerciéndole una fuerza equilibrante hacia arriba igual a su propio peso (el empuje).

Ahora imaginemos que “sacamos” nuestra porción de agua para hacerle lugar a un cuerpo sólido que ocupa exactamente el mismo volumen. El entorno no se ha modificado en absoluto, por lo tanto, ejercerá sobre el cuerpo intruso la misma fuerza que recibía la porción de agua desalojada. Es decir:

Un cuerpo sumergido recibe un empuje vertical y hacia arriba igual al peso del volumen de líquido desplazado.

E = Peso del líquido desplazado = dlíq . g . Vliq desplazado = dliq . g . Vcuerpo

Es importante señalar que es el volumen del cuerpo, y no su peso, lo que determina el empuje cuando está totalmente sumergido. Un cuerpo grande sumergido recibirá un gran empuje; un cuerpo pequeño, un empuje pequeño.

Como hace un barco para flotar?
Pues bien, el mismo está diseñado de tal manera para que la parte sumergida  desplace un volumen de agua igual al peso del barco, a la vez, el barco es hueco (no macizo), por lo que se logra una densidad media pequeña. En el caso de los submarinos, tienen un sistema que le permite incorporar agua y de esta manera consiguen regular a sus necesidades la densidad media de la nave.

Él agua, el alcohol y el mercurio son líquidos, pero el principio de Arquímedes se aplica a todos los fluidos, es decir, también a los gases. Los gases fluidos son mucho menos densos y producen empujes mucho menores. Con todo, los objetos pesan menos en el aire de lo que pesarían en el vacío. Un globo lleno de hidrógeno puede flotar en el aire porque su peso —que tiende a arrastrarlo hacia la Tierra— está exactamente equilibrado por el empuje del aire. Este empuje es también igual al peso de aire desplazado.

El conocimiento del principio de Arquímedes es de gran importancia para todo aquél que se ocupe del proyecto de barcos y submarinos, cuyo empuje debe ser calculado. Es absolutamente esencial saber cuánto se hundirá un barco al ser botado, o cuál será el empuje de un submarino.

LA FLOTABILIDAD Y EL PRINCIPIO DE Arquímedes. El objeto pesa menos en agua que en aire. La pérdida aparente de peso se debe al empuje del agua sobre el objeto. Pesa aún menos en agua salada. Como el agua salada es más pesada que el agua dulce, el peso del líquido desplazado es mayor. El empuje sobre el objeto es mayor porque es igual al peso de agua salada desalojada. Debido a este mayor empuje es más fácil flotar en agua salada que en agua dulce. Cuanto más denso el líquido, tanto más fácil será flotar en él.

EL PROBLEMA DE LA CORONA DEL REY

El rey Hierón le entregó 2,5 kg de oro a su joyero para la construcción de la corona real. Si bien ése fue el peso de la corona terminada, el rey sospechó que el artesano lo había estafado sustituyendo oro por plata en el oculto interior de la corona. Le encomendó entonces a Arquímedes que dilucidara la cuestión sin dañar la corona.

Con sólo tres experiencias el sabio pudo determinar que al monarca le habían robado casi un kilo de oro. Veamos cómo lo hizo.

En primer lugar, Arquímedes sumergió una barra de medio kilo de oro puro y comprobó que desplazaba 25,9 cm3. Por lo tanto, el peso específico del oro es:

Poro = 500 gr/25.3 cm3 =19.3 gr/cm3 

Si el joyero hubiera hecho las cosas como le habían indicado, el volumen de líquido desplazado por la corona real, que pesaba 2,5 kilogramos, debería haber sido:

Vcorona = 2.500 gr/19.3 gr/cm3=129.5 cm3

A continuación, sumergió la corona real y midió que el volumen de agua desplazado era de 166 cm3, o sea, mayor del esperado. ¡Hierón había sido estafado! ¿En cuánto? Para saber qué cantidad de oro había sido reemplazado por plata, Arquímedes repitió la primera experiencia sumergiendo una barra de un kilo de plata para conocer su peso específico. Como el volumen desplazado resultó 95,2 cm3, se tiene que:

Pplata=1000 gr/95.2 gr/cm3=10.5 gr/cm3

Sabemos que el peso total de la corona es 2.500 gr. (el joyero tuvo la precaución de que así fuera) y su volumen total, de 166 cm3. Entonces:

Vcorona=Voro+Vplata=166 cm3

Vplata=166-Voro

Pcorona=Poro+Pplata=2500 gr.

Si reescribimos la última ecuación en función del peso específico y el volumen, nos queda que:

19.3 gr/cm3 . Voro + 10.5 gr/cm3 . Vplata = 2500 gr

Tenemos dos ecuaciones con dos incógnitas (Voro y Vplata). Sustituyendo una ecuación con la otra, se tiene que:

19,3 gr/cm3. Voro + 10.5 gr/cm3. (166 cm3-Voro) = 2.500 g

de donde se despeja la incógnita:

Voro =86cm3

con lo que se deduce que:

Poro =Poro Voro = 19,3 gr/cm3 .  86 cm3 = 1.660 gr

Pplata=Pcorona – Poro =2.500gr -1.660 gr =840 gr

De esta manera, Arquímedes pudo comprobar que al rey le habían cambiado 840 gr. de oro por plata. Cuenta la leyenda que el joyero no pudo disfrutar del oro mal habido.

 

Principio de Pascal Presion de los Fluidos Resumen Teoria Liquidos

Principio de Pascal Presión de los Fluídos

Para sumergir totalmente en agua una colchoneta inflable necesitamos empujarla hacia abajo. Es más fácil sostener un objeto pesado dentro del agua que fuera de ella. Cuando buceamos pareciera que nos apretaran los tímpanos.

Éstos y muchos otros ejemplos nos indican que un líquido en equilibrio ejerce una fuerza sobre un cuerpo sumergido. Pero, ¿qué origina esa fuerza?, ¿en qué dirección actúa?, ¿también el aire en reposo ejerce fuerza sobre los cuerpos?, ¿qué determina que un cuerpo flote o no? Éstas son algunas de las cuestiones que aborda la estática de fluidos: el estudio del equilibrio en líquidos y gases.

Un fluido en reposo en contacto con la superficie de un sólido ejerce fuerza sobre todos los puntos de dicha superficie. Si llenamos de agua una botella de plástico con orificios en sus paredes observamos que los chorritos de agua salen en dirección perpendicular a las paredes. Esto muestra que la dirección de la fuerza que el líquido ejerce en cada punto de la pared es siempre perpendicular a la superficie de contacto.

En el estudio de los fluidos, resulta necesario conocer cómo es la fuerza que se ejerce en cada punto de las superficies, más que la fuerza en sí misma. Una persona acostada o parada sobre una colchoneta aplica la misma fuerza en ambos casos (su peso). Sin embargo, la colchoneta se hunde más cuando se concentra la fuerza sobre la pequeña superficie de los pies. El peso de la persona se reparte entre los puntos de la superficie de contacto: cuanto menor sea esta superficie, más fuerza corresponderá a cada punto.

Se define la presión como el cociente entre el módulo de la fuerza ejercida per­pendicularmente a una superficie (F perpendicular)  y el área (A) de ésta:

En fórmulas es: p=F/A 

La persona parada ejerce una presión mayor sobre la colchoneta que cuando está acostada sobre ella. La fuerza por unidad de área, en cada caso, es distinta. Cuando buceamos, la molestia que sentimos en los oídos a una cierta profundidad no depende de cómo orientemos la cabeza: el líquido ejerce presión sobre nuestros tímpanos independientemente de la inclinación de los mismos. La presión se manifiesta como una fuerza perpendicular a la superficie, cualquiera sea la orientación de ésta.

Densidad y peso específico
La densidad es una magnitud que mide la compactibili­dad de los materiales, es decir, la cantidad de materia contenida en un cierto volumen. Si un cuerpo está hecho de determinado material, podemos calcular su densidad como el cociente entre la masa del cuerpo y su volumen:d = m/V

Análogamente, se define el peso específico como el peso de un determinado volumen del material. Por lo tanto:    p=P/V    (peso dividido el volumen, pero el peso es la masa (m) por la aceleracion de la gravedad (g)) Se puede entonces escribir: p=(m.g)/V.

Como vimos antes, m/V es la densidad d, entonces p=d.g

Las unidades de presión que se utilizan normalmente son:

SistemaUnidadNombre
M.K.S.N/m²Pascal (Pa)
TECNICOKg/m²
C.G.S.dina/cm²Baría

EL PRINCIPIO DE PASCAL

En las figuras se muestran dos situaciones: en la primera se empuja el líquido contenido en un recipiente mediante un émbolo; en la segunda, se empuja un bloque sólido. ¿Cuál es el efecto de estas acciones? ¿Qué diferencia un caso de otro?

La característica estructural de los fluidos hace que en ellos se transmitan presiones, a diferencia de lo que ocurre en los sólidos, que transmiten fuerzas. Este comportamiento fue descubierto por el físico francés Blaise Pascal (1623-1662) , quien estableció el siguiente principio:

Un cambio de presión aplicado a un fluido en reposo dentro de un recipiente se transmite sin alteración a través de todo el fluido. Es igual en todas las direcciones y actúa mediante fuerzas perpendiculares a las paredes que lo contienen.

El principio de Pascal fundamenta el funcionamiento de las genéricamente llamadas máquinas hidráulicas: la prensa, el gato, el freno, el ascensor y la grúa, entre otras.

Cuando apretamos una chinche, la fuerza que el pulgar hace sobre la cabeza es igual a la que la punta de la chinche ejerce sobre la pared. La gran superficie de la cabeza alivia la presión sobre el pulgar; la punta afilada permite que la presión sobre la pared alcance para perforarla.

Cuando caminamos sobre un terreno blando debemos usar zapatos que cubran una mayor superficie de apoyo de tal manera que la presión sobre el piso sea la mas pequeña posible. Seria casi imposible para una mujer, inclusive las mas liviana, camina con tacos altos sobre la arena, porque se hundiría inexorablemente.

El peso de las estructuras como las casas y edificios se asientan sobre el terreno a través de zapatas de hormigón o cimientos para conseguir repartir todo el peso en la mayor cantidad de área para que de este modo la tierra pueda soportarlo, por ejemplo un terreno normal, la presión admisible es de 1,5 Kg/cm².

La Presa Hidráulica

El principio de Pascal fundamenta el funcionamiento de las genéricamente llamadas máquinas hidráulicas: la prensa, el gato, el freno, el ascensor y la grúa, entre otras.

Este dispositivo, llamado prensa hidráulica, nos permite prensar, levantar pesos o estampar metales ejerciendo fuerzas muy pequeñas. Veamos cómo lo hace.

El recipiente lleno de líquido de la figura consta de dos cuellos de diferente sección cerrados con sendos tapones ajustados y capaces de res-balar libremente dentro de los tubos (pistones). Si se ejerce una fuerza (F1) sobre el pistón pequeño, la presión ejercida se transmite, tal como lo observó Pascal, a todos los puntos del fluido dentro del recinto y produce fuerzas perpendiculares a las paredes. En particular, la porción de pared representada por el pistón grande (A2) siente una fuerza (F2) de manera que mientras el pistón chico baja, el grande sube. La presión sobre los pistones es la misma, No así la fuerza!

Como p1=p2 (porque la presión interna es la misma para todos lo puntos)

Entonces: F1/A1 es igual F2/A2 por lo que despejando un termino se tiene que: F2=F1.(A2/A1)

Si, por ejemplo, la superficie del pistón grande es el cuádruple de la del chico, entonces el módulo de la fuerza obtenida en él será el cuádruple de la fuerza ejercida en el pequeño.

La prensa hidráulica, al igual que las palancas mecánicas, no multiplica la energía. El volumen de líquido desplazado por el pistón pequeño se distribuye en una capa delgada en el pistón grande, de modo que el producto de la fuerza por el desplazamiento (el trabajo) es igual en ambas ramas. ¡El dentista debe accionar muchas veces el pedal del sillón para lograr levantar lo suficiente al paciente!

UN POCO DE HISTORIA
PASCAL Y TORRICELLI

Las experiencias de Torricelli llegaron a oídos de Blas Pascal, que en la misma época vivía en la ciudad de Rúan. Entusiasmado con las ideas del físico italiano, repitió las experiencias y se convenció de que aquél tenía razón. Además, aprovechando que en su villa se construían excelentes tubos de vidrio, hizo construir uno de alrededor de once metros de largo, y realizó la experiencia de Torricelli, pero con agua, comprobando que alcanzaba una altura de 10,33 metros.

Debido a una disputa con físicos que sostenían todavía la vieja doctrina del horror al vacío, Pascal hizo esta experiencia hasta con vino, aplastando los argumentos de los adversarios.

Si la teoría de Torricelli es correcta, pensó Pascal, ¿qué debe ocurrir cuando se hace la experiencia de Torricelli a distintas alturas, subiendo una montaña, por ejemplo? La presión atmosférica debe ir disminuyendo, y por lo tanto la columna de mercurio, que al nivel del suelo tiene una altura de unos 76 cm, debe ir disminuyendo también.

Pascal decidió realizar el experimento, pero por su salud no pudo hacerlo personalmente. Envió a unos amigos, quienes ascendieron al Puy-de-Dóme, en la Auvernia, en 1649. Con gran emoción, los expedicionarios comprobaron que, a medida que ascendían por la montaña, el nivel del mercurio bajaba. El descenso alcanzó unos 8 cm al llegar a la cima.

ALGUNOS “MISTERIOS”
La presión de la atmósfera es capaz de sostener una columna de agua de unos 10 metros de altura y de cualquier sección. Pues bien, llene un vaso e inviértalo, rápidamente. ¿Impedirá la presión atmosférica que se vuelque el agua? Todos sabemos que no. ¿Por qué? Recuerde la experiencia del vaso citada al comienzo: colocábamos un papel. ¿Cuál es la función del papel? En el tubo de vainilla, el papel no era necesario…

Y a propósito… Si decimos que la presión atmosférica sostiene una columna de mercurio de 76 cm de altura, ¿para qué se usa la cubeta con mercurio en la experiencia de Torricelli? ¿Por qué no invierte el tubo lleno de mercurio tranquilamente en el aire? Si se usa un tubo suficientemente delgado, ¿sucederá con el mercurio lo mismo que con el agua del tubo de vainilla?

Ejemplo 1:
 Calcular qué altura alcanza el agua si se hace con ella la experiencia de Torricelli.

Datos:
presión atmosférica p = 1.033 g/cm2;
peso específico del agua @ = 1 g/cm3

Se necesita una columna de agua que produzca esa presión. Su altura h será tal que:
p =  h . @ ==> h=p/@ = 1.033 g/cm2  / 1 g/cm3  = 1033 cm.= 10,33 m.

Ejemplo 2:
Admitiendo que el peso específico del aire es de 1,3 g/dm3, calcular cuál es la presión atmosférica a 100 m de altura, si al nivel del suelo es de 1 033 g/cm2.

A  1.033 g/cm2 hay que restarle la presión ejercida por una columna de aire de 100 m de altura:
h @=- 100 m . 1,3 g/dm3 = 10.000 cm . 0,0013 g/cm3  = 13g/cm2

Luego, a 100 m de altura
p’ = 1.033 g/cm2 – 13 g/cm2 = 1.020 g/cm2

Ejemplo 3:
Calcular cuánto desciende la columna de mercurio del tubo de Torricelli cuando se lo eleva 100 m.
A 100 m la presión es de 1.020 g/cm2.

El mercurio llegará a una altura h tal que: h [email protected] = p  ===>  h=p/@
1020 gcm2 / 13,6 g/cm= 75 cm.

La columna ha descendido 1 cm.

Estos problemas sugieren inmediatamente la idea de averiguar la altura a que se encuentra una persona midiendo simplemente la presión atmosférica a esa altura. Es el principio que se usa para medir la altura a la que vuela un avión.

Efectos de la presion en el fondo de mar Vivir en el Fondo del Mar

EL EFECTO DE LA PRESIÓN DEL MAR EN LAS PROFUNDIDADES

El peso del aire nos pasa inadvertido porque, como cualquier otro fluido, el aire ejerce su presión en todas direcciones. La sangre en nuestras venas, el aire en nuestros pulmones, los fluidos de nuestros cuerpos están a presión atmosférica. Ejercen una presión hacia afuera igual a la que la atmósfera ejerce hacia adentro.

Es decir, estamos en equilibrio con nuestro ambiente. Si nos sumergimos en agua, la presión externa crece rápidamente con la profundidad y no puede ser equiparada desde adentro sin dañar nuestros tejidos.

Por esta razón, un hombre sin protección alguna tiene limitada su inmersión, aunque esté equipado con un tanque de oxígeno. Por otro lado, existen formas de vida adaptadas a los más profundos abismos del océano, donde la presión hidrostática es de más de 1.000 atmósferas.

Esos seres están balanceados con su entorno y se mueven con la misma indiferencia con que nosotros “buceamos” en el océano del aire.

Cuando el buzo se sumerge sin protección rígida, debe respirar aire a la misma presión que la del entorno. El tanque de aire comprimido que carga en la espalda tiene un regulador que permlle que el aire inhalado cumpla con este requisito.

Desde que se ha empezado a utilizar el aire comprimido se sabe que la exposición a grandes presiones puede dañar o matar; gradualmente se ha comenzado a entender los mecanismos subyacentes en tales afecciones.

A fines del siglo XIX comenzaron a usarse unas cabinas especiales presurizadas durante la construcción de los cimientos de los puentes, bajo agua. Cuando los obreros eran sometidos a descompresión, desarrollaban una serie de afecciones que iban desde dolores en las articulaciones, entumecimientos, parálisis, hasta incluso la muerte.

En este siglo, el grupo de riesgo se ha extendido a buzos, obreros en cabinas pilotos de aviones volando a grandes alturas y astronautas. Cuando un buzo novato retiene el aire mientras sube muy ligero, puede sufrir embolia gaseosa. Se produce porque la presión del entorno disminuye rápidamente, entonces el gas sin escape de los pulmones se expande.

El pulmón se rasga y el aire escapa a la sangre.

Por los circuitos arteriales las burbujas pueden llegar al cerebro y provocar parálisis o muerte. La enfermedad de la descompresión propiamente dicha es la consecuencia de formación de burbujas en los tejidos. El gas que lo provoca (nitrógeno, por lo general) entra al cuerpo por los pulmones en una inmersión, y la alta presión hace que se disuelva en la sangre.

La circulación lo lleva hasta los capilares donde se difunde en los tejidos. Esta difusión es más rápida en la médula espinal y en el cerebro (porque están más irrigados), yen los músculos calientes y activos.

Una manera de prevenir la enfermedad consiste en un ascenso lento, a razón de 9 metros por minuto, o con paradas de seguridad regulares. Otra, es la aspiración de mayor concentración de oxígeno; se venden tubos con aire con una concentración de 32% de oxígeno (en lugar del 21% normal).

Los buzos aficionados pueden bucear hasta una profundidad de 39 metros con un tubo de aire comprimido común y sin necesitar de una descompresión por etapas mientras suben. Pero son muchos los buzos que mejorando su equipo, y aumentando el riesgo, prefieren incursionar en lo más profundo para poder encontrarse con restos de naufragios, túneles y oscuras cavernas, entre otras maravillas.

Últimamente se han experimentado diferentes mezclas de gases para evitar que las altas presiones resulten nocivas para el organismo. En 1993, una inmersión simulada (en una cabina presurizada especial) alcanzó el récord de 701 metros de profundidad. Estas experiencias límite requieren de siete días de compresión progresiva y de treinta días de descompresión.

El conocimiento de la fisiología de la enfermedad puede incorporarse a modelos matemáticos que indican probabilísticamente los riesgos de las inmersiones acuáticas. Para desarrollar dichos modelos se ha recogido información de cientos de inmersiones por medio de computadoras que llevan los buzos entre su equipo.

Estas computadoras registran la profundidad de manera precisa y continuamente actualizas cálculos de nitrógeno en los tejidos, transfiriendo la información a computadoras en la superficie.

El desafío de las próximas décadas es el perfeccionamiento de los modelos para que extiendan su cobertura y minimicen los riesgos. Ya se ha pagado bastante caro la información de cómo el cuerpo del hombre responde a las fuerzas para las que no está diseñado cuando traspasa sus limites hacia el espacio exterior o hacia las profundidades oceánicas.

La Presion Atmosférica Experiencia de Torricelli Concepto Definicion

LA MEDICIÓN DE LA PRESIÓN ATMOSFÉRICA, EXPERIENCIA DE TORRICELLI

Todos sabemos que existen varios tipos de presión; cualquiera comprende por ejemplo, la presión que realiza un dedo apoyado apretadamente sobre alguna cosa. Esta presión es igualmente aplicable a los sólidos, a los líquidos y a los gases. De la misma forma que se han hallado medios especiales para medir la gravedad y el peso específico de un cuerpo, también se inventaron medios especiales para medir las presiones.

Cuando se habla de los tres estados de la materia —sólido, líquido y gaseoso— no se hace hincapié en que dos de ellos se parecen entre sí bastante más que el tercero. El agua es muy diferente del aire, pero ambos gozan de la propiedad de fluir. En el sólido existen fuerzas que mantienen unidas las moléculas, de manera que su forma se conserva pero la forma del aire y del agua varían constantemente, porque tanto uno como otra fluyen. En el lenguaje científico, tanto los líquidos como los gases se denominan fluidos. Ahora bien, en todo fluido existe una cierta presión; conocemos perfectamente un ejemplo, ya que siempre hemos soportado la presión del aire, que se denomina presión atmosférica, es entre todas las presiones fluidas, la más importante para nuestra existencia.

Ante todo, cabe decir que en el inmenso océano de aire que nos rodea, existe presión fluida; la consecuencia más importante de esta presión es nuestra respiración. Al respirar, ejecutamos un movimiento que tiende a vaciar nuestros pulmones, pero por estar éstos en comunicación con el aire exterior, la presión atmosférica hace que éste penetre en el espacio que ha quedado libre. Es, pues, evidente que sin la presión atmosférica no nos sería posible respirar.

En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y rebotando caóticamente. Esta agitación frenética hace que los gases se expandan hasta ocupar todo el lugar disponible en un recipiente. Nuestro planeta está envuelto por una capa de gases a la que llamamos atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la Tierra restringe su expansión.

Estamos sumergidos en un “océano de aire”, una capa gaseosa que, como una cáscara de manzana (tan fina es), recubre el planeta. En forma similar a como lo hace un liquido, el peso del aire sobre la superficie terrestre ejerce una presión, la presión atmosférica. A diferencia de los líquidos, los gases son compresibles: como su densidad puede variar, las capas superiores de la columna de aire comprimen a las más bajas.

En los lugares más profundos de la atmósfera, es decir a nivel del mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece a unos 40 Km. de altura. La capa baja, la tropósfera, presenta las condiciones necesarias para la vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del aire total de la atmósfera.

La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de superficie (1 Kg/cm²) pero, sin embargo, no lo notarnos (motivo por el cual, por miles de años, los hombres consideraron al aire sin peso). ¿Cómo es que los animales y las personas que están en la Tierra pueden soportar tamaña presión?

El aire ejerce su presión en todas direcciones (como todos los fluidos y los gases), pero los líquidos internos de todos esos seres ejercen una presión que equilibra la presión exterior. En este hecho se basa el mecanismo de esterilización por vacío: para eliminar los microorganismos de una muestra (alimento, instrumental, etc.), se la coloca en un recipiente del cual se extrae el aire. La presión exterior es reducida y los fluidos internos de las bacterias, que estaban sometidas a la presión atmosférica, se expanden, haciendo que éstas “revienten”.

Si se extrae el aire de un recipiente, la presión atmosférica lo aplastará, a menos que el recipiente sea suficientemente rígido.

Al apretar una sopapa (para destapar cañerías) contra una superficie pulida se aplasta y queda sin aire. Cuando, por acción de las fuerzas elásticas, la sopapa recupera su forma inicial, queda un vacío parcial en el interior y la presión atmosférica exterior la mantiene adherida a la pared. Del mismo modo, las patas de las moscas tienen pequeñas ventosas que les permiten caminar por paredes y techos sin caer al piso.

El funcionamiento del gotero obedece al mismo fenómeno. Al apretar la perilla de goma creamos un vacío parcial. Cuando sumergimos el tubito en el liquido y soltamos la perilla, la presión atmosférica que se ejerce sobre la superficie libre del liquido lo obliga a subir por el tubo hasta la región de menor presión dentro de la perilla.

Experiencia de Torricelli:
En 1643, el físico italiano Evangelista Torricelli ideó un procedimiento para medir la presión atmosférica.

¿Por qué el mercurio no descendió más? El tubo no se yació porque el aire exterior presionaba sobre el mercurio de la cubeta (en cambio, en la parte superior del tubo se produjo vacío). La presión ejercida por la atmósfera en el punto Q es igual a la presión en R, ya que ambos puntos están al mismo nivel en el mismo fluido. Es decir que la presión que la columna de aire de casi 40 km de altura (la atmósfera) ejerce sobre la superficie libre del mercurio (pQ) es igual a la que ejerce la columna de 76 cm de mercurio (pa) , entonces:

Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa

Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb = 0,75 Torr).

1 atm = 760 mm Hg = 760 Torr

Esta experiencia logró explicar por qué había un límite de profundidad para extraer el agua de las minas: la atmósfera no ejerce una presión ilimitada, sólo alcanza a sostener una determinada altura de agua.

La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama barómetro.

Poco después de la experiencia de Torricelli, Blaise Pascal predijo que la presión atmosférica debe disminuir cuando se asciende por una montaña, ya que la columna de aire soportada es cada vez menor. Su cuñado se encargó de hacer la experiencia y comprobar la hipótesis en 1658. A medida que ascendía al monte Puy de Dome observó el descenso de la columna mercurial del barómetro (que desde entonces pudo ser usado también como altímetro).

Pero, ¿cuál es la relación entre la presión atmosférica y la altura? Si la densidad del aire fuera uniforme, la presión disminuiría proporcionalmente con la altura. Podríamos afirmar, por ejemplo, que “la presión disminuye 1 Torr por cada 11 metros que nos elevamos”. Pero tengamos presente que las capas más bajas de la atmósfera están más comprimidas por lo que, conforme subimos, el aire se va enrareciendo (se hace menos denso). Por lo tanto, cuanto más alto estemos, más se necesitará subir para que la presión disminuya 1 Torr.

El peso total del aire en la atmósfera se ha estimado en unos 5.000 billones de toneladas, que determinan una presión aproximada de 1,033 Kg. por centímetro cuadrado a nivel del mar. La presión no se siente porque se ejerce igualmente desde todos los ángulos sobre el cuerpo. Sin embargo, la presión del aire puede demostrarse extrayendo todo el aire de un envase, de modo que se produzca el vacío en su interior. Como la presión del aire exterior es más grande que la interior el envase se contraerá y cederá. En la atmósfera la presión del aire varía y se mide con barómetros. Las variaciones son importantes para realizar pronósticos del tiempo, porque las diferencias de presión se asocian con los

Torricelli Evangelista Físico Italiano

Fue físico Evangelista Torricelli, que supuso que el agua subía por los tubos, cuando funcionaban las bombas, por efecto del peso del aire, es decir, de la presión que la atmósfera ejercía sobre la superficie libre del agua. Pero pensó, además, que esa presión debía tener un límite tal que no permitía elevar aquel líquido a más de 10 metros y, reflexionando, supuso que un líquido como el mercurio, que tiene un peso específico unas 13,6 veces mayor que el agua, se elevaría a tan sólo unos 76 centímetros. Torricelli comunicó sus ideas a otro discípulo de Galileo Galilei, de apellido Viviani. Este realizó el experimento hoy conocido con el nombre de experiencia de Torricelli, que confirmó aquellas ideas.

CICLONES Y LOS ANTICICLONES: El cuerpo humano se adapta a la vida en un océano de aire del mismo modo que los peces se adaptan a las tremendas presiones del fondo del mar. Sin embargo, la presión atmosférica decrece sobre el nivel del mar.

A 7.500 metros de altura la presión del aire es de 0,42 gramos por centímetro cuadrado, alrededor de dos quintas partes de la presión a la que está adaptado el cuerpo, y a los 18.000 metros la presión es sólo la de un décimo de la que se ejerce al nivel del mar. Cuando la presión del aire ha descendido mucho, el cuerpo no recibe oxígeno suficiente. De ahí que los aviones posean cabinas presurizadas, que hacen más cómodo el vuelo. La presión del aire es la fuerza utilizada en las BOMBAS. Comprimido, el aire llegó a ser una útil fuente de energía. Por ejemplo, el aire comprimido se usa en las herramientas naúticas.

PARA SABER MAS…
Qué es el barómetro

El tubo de Torricelli aplicado a la medición de la presión atmosférica, forma ni más ni menos lo que se llama un barómetro, que significa precisamente “medidor del peso”; con el barómetro medimos, pues, el peso atmosférico. Cuando lo consultamos, nos contentamos con ver si la aguja marca buen tiempo o variable, e lo que sea en cada caso, como si el barómetro poseyera el don de la profecía; pero lo que hacemos en realidad, aunque apenas nos demos cuenta de ello, es medir la presión atmosférica, que se indica bajo aquellos signos. La aguja del barómetro indica la altura en milímetros de la columna de mercurio.

La relación entre el barómetro y el tiempo reside en el hecho de que la presión atmosférica es lo que decide, en gran parte, el tiempo que hará. Si la presión atmosférica es muy alta, hará buen tiempo; si es muy baja, entonces el aire correrá desde otro punto donde la presión sea más fuerte; este desplazamiento del aire es el viento, y el viento puede producir la lluvia.

He aquí por qué el barómetro predice con bastante exactitud el tiempo; si no lo hace con mayor precisión, es porque la presión atmosférica no es la única causa de su variación.

Por lo demás, si bien como profeta del tiempo no siempre es digno de crédito, sus servicios para medir las alturas son excelentes. Dado que obedece a la menor presión atmosférica, si se aplica el barómetro a un instrumento de precisión especial, indicará con exactitud matemática a qué altura se encuentran el alpinista o el aviador que se sirvan de él.

baromtroEl barómetro más difundido es igual al tubo del instrumento de Torricelli, pero su extremo suele estar doblado en forma de U, en lugar de penetrar en una cubeta de mercurio.

Si hacemos flotar una bolita de hierro en la superficie del mercurio por la parte abierta del tubo, podrá adherirse a ella con facilidad un pequeño dispositivo con una aguja que nos indique la altura de la columna barométrica, señalada con las palabras: bien tiempo, estable, variable, lluvia, etc.

Existe otro tipo de barómetro que no tiene mercurio ni ningún otro líquido, llamado barómetro aneroide, que significa precisamente “sin líquido”. Consiste en una sencilla caja de metal, redonda y aplanada, dentro de la cual se ha hecho el vacío; la parte superior e inferior de la caja se aproximan entre sí, más o menos, según sea la presión atmosférica; un indicador de la medida de la presión, y aunque sus indicaciones no sean muy precisas, son, en todo caso, suficientes.

Si calentamos un barómetro corriente de los de mercurio, éste se dilatará, ocupando un mayor espacio en el tubo; por lo tanto, si deseamos obtener indicaciones exactas, debemos tener en cuenta también la temperatura. Por esto, a un buen barómetro va siempre unido un termómetro. Para fabricar un buen barómetro, es necesario hacer hervir antes el mercurio para librarlo al máximo del aire y del vapor acuoso; si se descuidase esta precaución, el aire y el vapor de agua ocuparían el vacío de Torricelli impidiendo el oportuno ascenso del mercurio.

La presión atmosférica se calcula en 1 kilo y 33 gramos por centímetro cuadrado; por lo tanto, cada centímetro cuadrado de nuestro cuerpo soporta este peso, tan considerable, que si sólo presionara hacia abajo nos aplastaría literalmente.

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Biografia de Blaise Pascal: inventor,matematico y gran fisico Resumen

Biografía de Blaise Pascal: Inventor,Matemático y Gran Físico

Veintisiete años tenía Descartes cuando Blaise Pascal nació en Clermont, Auvernia, Francia, el 19 de junio de 1623, y éste sobrevivió a Descartes 12 años. Su padre Etienne Pascal, presidente de la Corte de Auvernia, en Clermont, era un hombre de cultura, considerado en su tiempo como un intelectual; su madre Antoinette Bégone murió cuando su hijo tenía cuatro años. Pascal tenía dos bellas e inteligentes hermanas, Gilberte, más  tarde Madame Périer, y Jacqueline; ambas, especialmente la última, habían de desempeñar papeles importantes en su vida.

Blaise Pascal es más conocido para el lector general por sus dos obras literarias, los Pensées y las Lettres écrites par Louis de Montalle a un provincial de ses amis, y es habitual condensar su carrera matemática en algunos párrafos dentro del relato de sus prodigios religiosos.

En este lugar, nuestro punto de vista debe necesariamente diferir, y consideraremos primeramente a Pascal como un matemático de gran talento, que por sus tendencias masoquistas de autotortura y especulaciones sin provecho sobre las controversias sectarias de su tiempo, cayó en lo que podemos llamar neurosis religiosa. La faceta matemática de Pascal es quizá una de las más importantes de la historia.

Tuvo la desgracia de preceder a Newton por sólo muy pocos años, y de ser contemporáneo de Descartes y Fermat, hombres más equilibrados que él. Su obra más original, la creación de la teoría matemática de probabilidades, se debe también a Fermat, quien pudo fácilmente haberla  formulado solo.

En Geometría, en la cual es famoso como una especie de niño prodigio, la idea creadora fue proporcionada por un hombre, Desargues, de mucha menos celebridad. En su esquema sobre la ciencia experimental, Pascal tuvo una visión mucho más clara que Descartes, desde el punto de vista moderno del método científico, pero le faltaba la exclusividad de objeto de Descartes, y aunque a él se deben estudios de primera categoría, se desvió de lo que pudiera haber hecho a causa de su morbosa pasión por las disquisiciones religiosas.

Es inútil especular sobre lo que Pascal podría haber hecho. Narraremos su vida tal como fue, y al considerarle como matemático diremos que hizo lo que estaba en él y que ningún hombre podría haber hecho más.

Su vida es un constante comentario de dos de las historias, o símiles del Nuevo Testamento, que era su constante compañero y su infalible amparo: la parábola de los talentos y la observación acerca de que el vino nuevo rompe los odres viejos. Si hubo un hombre maravillosamente dotado que sepultara su talento, fue Pascal, y si hubo una mente medieval que se quebrara en su intento de mantener el nuevo vino de la ciencia del siglo XVII fue la de Pascal. Sus grandes dotes habrían sido concedidas por equivocación a la persona que Pascal fue. A la edad de 7 años Pascal se trasladó con su padre y hermanas, desde Clermont a París. Por este tiempo el padre comenzó a enseñar a su hijo.

Pascal era un niño extraordinariamente precoz. Tanto él como sus hermanas parece que han tenido un talento natural notable. Pero el pobre Blaise heredó (o adquirió) un miserable físico con una mente brillante, y Jacqueline, la más inteligente de sus hermanas, parece haber sido semejante a su hermano, pues cayó víctima de una morbosa religiosidad. Al principio todas las cosas marchaban bien.

El padre, asombrado de la facilidad con que su hijo absorbía la educación clásica de la época intentó mantener al muchacho en una relativa tranquilidad para que su salud no se quebrantara. La Matemática era tabú, basándose en la teoría de que los genios jóvenes pueden malgastarse al emplear excesivamente su cerebro. Su padre en realidad era un mal psicólogo.

Este temor por la Matemática excitó, como es natural, la curiosidad del muchacho. Un día, teniendo 12 años, quiso saber lo que era la Geometría. Su padre le hizo una clara descripción, y Pascal creyó adivinar repentinamente su verdadera vocación. En contradicción con sus opiniones posteriores, Pascal había sido llamado por Dios no para atormentar a los jesuitas, sino para ser un gran matemático.

Pero sus oídos eran sordos y percibió las órdenes confusamente. Lo que sucedió cuando Pascal comenzó a estudiar Geometría ha sido una de las leyendas de la precocidad matemática. De pasada podemos recordar que los niños prodigios en Matemática no aparecen repentinamente, como algunas veces se ha dicho de ellos.

La precocidad en Matemática ha sido muchas veces el primer destello de una gloriosa madurez, a pesar de la persistente superstición de lo contrario. En el caso de Pascal la genialidad matemática precoz no se extinguió con el desarrollo, pero fue ahogada por otros problemas.

La capacidad para la Matemática persistió, como puede observarse en el caso de la cicloide, en una época posterior de su breve vida, y si hay que buscar un culpable de que pronto renunciara a la Matemática, se encontraría probablemente en su estómago.

Su primera hazaña espectacular fue demostrar por su iniciativa y sin la sugestión de ningún libro que la suma de los ángulos de un triángulo es igual a dos ángulos rectos. Esto le alentó a continuar en sus estudios. Dándose cuenta de que tenía en su casa a un gran matemático, el padre lloró de gozo y entregó a su hijo un ejemplar de los Elementos de Euclides. Fue rápidamente devorado, no como un trabajo, sino como un placer. El muchacho dejó sus juegos en favor de la Geometría.

En relación con el conocimiento rapidísimo que Pascal tuvo de Euclides, su hermana Gilberte se permite un embuste. Cierto es que Pascal planteó y demostró por sí mismo diversas proposiciones de Euclides antes de haber visto el libro. Pero lo que Gilberte narra acerca de su brillante hermano es  más improbable que colocar en fila un billón de partículas.

Gilberte declara que su hermano había redescubierto por sí mismo las Primeras 32 proposiciones de Euclides, y que las encontró en el mismo orden en que Euclides las había establecido. La proposición 32 es, en efecto, la famosa de la suma de los ángulos de un triángulo que Pascal redescubrió. Ahora bien, existe una sola forma de hacer bien una cosa, pero parece más probable que existe una infinidad de formas de hacerla mal. En la actualidad sabemos que las supuestas rigurosas demostraciones de Euclides, incluso las cuatro primeras de sus proposiciones, no prueban nada.

El hecho de que Pascal cayera en los mismos errores que Euclides por su propia cuenta es una historia fácil de contar pero difícil de creer. Podemos, sin embargo, perdonar esta fanfarronada de Gilberte. Su hermano era digno de ella. Tenía 14 años cuando fue admitido en las discusiones científicas semanales dirigidas por Mersenne, de las cuales nació la Academia Francesa de Ciencias. Mientras el joven Pascal se hacía casi un geómetra por su propio esfuerzo, el viejo Pascal se colocó en pugna con las autoridades debido a, su honradez y rectitud general. En particular, el desacuerdo había sido con el Cardenal Richelieu acerca de una pequeña cuestión de los impuestos.

El Cardenal estaba irritado y la familia de Pascal se ocultó hasta que la tormenta pasara. Se dice que la bella e ingeniosa Jacqueline salvó a la familia y restableció las relaciones de su padre con el cardenal, gracias a su brillante actuación en una fiesta celebrada para la diversión de Richelieu, donde actuó de incógnito. Al preguntar el nombre de la encantadora joven artista que le había cautivado, y al decirle que era la hija de su pequeño enemigo, Richelieu perdonó generosamente a toda la familia y colocó al padre en un cargo político en Rouen.

Teniendo en cuenta lo que se sabe de esa vieja serpiente que fue el Cardenal Richelieu, esta agradable historia es probablemente un mito. De todos modos, la familia Pascal encontró un cargo y tranquilidad en Rouen.

Allí el joven Pascal conoció al dramaturgo Corneille, que quedó muy impresionado por el talento del muchacho. A la sazón Pascal era esencialmente matemático y Corneille seguramente no pudo sospechar que su joven amigo llegara a ser uno de los grandes creadores de la prosa francesa. En este tiempo Pascal estudiaba incesantemente. Antes de cumplir los 16 años (alrededor del año 1639)

demostró uno de los más bellos teoremas de toda la Geometría. Por fortuna se puede explicar en términos comprensibles para cualquiera. Sylvester, un matemático del siglo XIX del que nos ocuparemos más tarde, lo llamó “el gran teorema de Pascal”. En primer término expondremos una forma especial del teorema general que puede ser construido con sólo el uso de una regla.

Consideremos dos líneas rectas que se cortan, l y l’. En 1 marcar 3 puntos diferentes A, B, C, y en 1′ otros tres puntos diferentes A’, B’, C’. Unir estos puntos por rectas del siguiente modo: A y B’, A’ y B, B y C’, B’ y C, C y A’, C’ y A.

Las dos rectas de cada uno de estos pares se cortan en un punto 1 Los autores difieren acerca de la edad de Pascal cuando hizo este estudio, calculándose entre 15 y 17 años. La edición de 1819 de las obras de Pascal contiene un breve resumen de ciertas proposiciones sobre las secciones cónicas, pero éste no es el ensayo completo que Leibniz vio.    Tenemos así tres puntos.

El caso especial del teorema de Pascal que nosotros ahora describimos expresa que estos tres puntos están en línea recta. Antes de dar forma general al teorema mencionaremos otro resultado igual al precedente. Es el obtenido por Desargues (1593-1662). Si las tres líneas rectas que se obtienen uniendo los vértices de dos triángulos XYZ y xyz coinciden en un punto, las tres intersecciones de los pares de lados correspondientes están en línea recta. Así, si las líneas rectas que unen, X y x, Y e y, Z y z coinciden en un punto, entonces las intersecciones de X Y y x y, Y Z e y z, ZX y zx están en línea recta.

En el capítulo 11 hemos expuesto lo que es una sección cónica. Imaginemos cualquier sección cónica, por ejemplo una elipse. Sobre ella se marcan seis puntos cualesquiera, A, B, C, D, E, F, y se unen en este orden por líneas rectas. Tenemos así una figura de 6 lados, inscrita en la sección cónica, en la cual AB y DE, BC y EF, CD y FA, son pares de lados opuestos. Las tres rectas que determinan los seis vértices se cortan en un punto. Los tres puntos de intersección están en línea recta  Este es el teorema de Pascal; la figura que proporciona es lo que él llama “hexagrama místico”.

Probablemente demostró primero su exactitud para un círculo, y luego lo amplió por proyección a cualquier sección cónica. Sólo se requiere una regla y un par de compases si el lector desea ver que la figura es igual para un círculo. Pueden mencionarse diversas cosas asombrosas acerca de esta maravillosa proposición, y no es la menos importante la de que fue descubierta y probada por un muchacho de 16 años.

Por otra parte, en su Essai pour les coniques, dedicado a este gran teorema por este muchacho extraordinariamente inteligente se deducen sistemáticamente, como corolarios no n-ieaos de 400 proposiciones sobre las secciones cónicas, incluyendo la obra de Apolonio y de otros autores, permitiendo que los pares de puntos coincidan, de modo que una cuerda se transforme en una tangente, y apelando a otros recursos.

Jamás fue publicado todo el Essai, y parece que se ha perdido irremisiblemente, pero Leibniz vio y estudió un ejemplar. Además, el tipo de Geometría de Pascal difiere fundamentalmente de la de los griegos; no es métrica, sino descriptiva o proyectiva. Magnitudes de líneas o de ángulos no figuran en la exposición ni en la prueba del teorema. Este teorema basta por sí mismo para abolir la estúpida definición de la Matemática, heredada de Aristóteles y reproducida algunas veces en los diccionarios, como la ciencia de la “cantidad”. No existen “cantidades” en la Geometría de Pascal.

Para ver lo que significa la proyección del teorema imaginemos un cono (circular) de luz que surja de un punto y atraviese una lámina plana de vidrio estando el cono en diversas posiciones.

La curva que limita la figura en que la lámina corta al cono, es una sección cónica. Si se traza el “hexagrama místico” de Pascal sobre el cristal para cualquier posición determinada y se coloca otra lámina de cristal a través del cono, de modo que caiga sobre ella la sombra del hexagrama, tal sombra será otro “hexagrama místico” con sus tres puntos de intersección de pares opuestos de lados que están en línea recta, la sombra de la recta de los tres puntos” en el hexagrama original. Es decir, el teorema de Pascal es invariante (no cambiado) en proyección cónica. Las propiedades métricas de las figuras estudiadas en la Geometría elemental no son invariantes en proyección; por ejemplo, la sombra de un ángulo recto no es un ángulo recto en todas las posiciones de la segunda lámina.

Es natural que este tipo de Geometría proyectiva o descriptiva sea una de las Geometrías naturalmente adaptadas a algunos de los problemas de perspectiva. El método de proyección fue usado por Pascal para probar su teorema, pero había sido ya aplicado  por Desargues para deducir el resultado antes expuesto referente a dos triángulos “en perspectiva”. Pascal reconoció a Desargues el mérito de su gran invención. Desde la edad de 17 años hasta el final de su vida, a los 39, Pascal pasó pocos días sin dolor. Una dispepsia hizo de sus días un tormento, y un insomnio crónico hizo de sus noches una constante pesadilla. Sin embargo, trabajó incesantemente. A los 18 años inventó y construyó la primera máquina calculadora de la historia, el antepasado de todas las máquinas calculadoras que han desplazado verdaderos ejércitos de empleados en nuestra generación.

Cinco años más tarde, en 1646, Pascal sufrió su primera “conversión”. No fue profunda, posiblemente debido a que Pascal tenía sólo 23 años y estaba aún absorbido en su Matemática. Desde ese tiempo, la familia, que había sido devota, cayó en una apacible locura. Es difícil para un hombre moderno imaginar las intensas pasiones religiosas que inflamaron el siglo XVII, que separaron familias y que dieron lugar a que países y sectas que profesaban el cristianismo se lanzaran unos contra otros. Entre los aspirantes a ser reformadores religiosos de la época se hallaba Cornelius Jansen (1585-1638), un ardiente holandés que llegó a ser obispo de Yprés. Un punto cardinal en su dogma era la necesidad de la “conversión” como un medio para la “gracia”, en una forma algo semejante a la de ciertas sectas que hoy florecen. Sin embargo, la salvación parecía ser una de las ambiciones menores de Jansen.

Estaba convencido de que Dios le había elegido especialmente para atormentar a los jesuitas en esta vida y prepararles para la condena eterna en la otra. Ésta era lo que él llamaba su misión. Su credo no era ni el catolicismo ni el protestantismo, aunque se acercaba más bien a este último. Su idea directriz era, en primer término, en último término y siempre, un terrible odio para aquellos que discutieran su fanatismo dogmático. La familia de Pascal abrazó entonces (1646), aunque no demasiado ardientemente al principio, el desagradable credo del jansenismo. Así, Pascal, a la precoz edad de 23 años, comenzó ya a. marchitarse. En el mismo año todo su aparato digestivo funcionaba mal y además sufrió parálisis temporales. Pero no estaba muerto intelectualmente. Su grandeza científica dio nuevos destellos en el año 1648, aunque en una dirección completamente nueva.

Estudiando las obras de Torricelli (1608-1647) sobre la presión atmosférica, Pascal le superó, demostrando que comprendía el método científico que Galileo, el maestro de Torricelli, había dado al mundo. Mediante experimentos con el barómetro, que él sugirió, Pascal demostró los hechos ahora familiares para todos los estudiantes de Física, referentes a la presión de la atmósfera. Gilberte, la hermana de Pascal, había contraído matrimonio con Mr. Périer. Por sugestión de Pascal, Périer realizó el experimento de transportar un barómetro hasta el Puy de Dóme, en Auvernia y observó el descenso de la columna de mercurio cuando la presión atmosférica decrecía. Más tarde, Pascal, al volver a París con su hermana Jacqueline, repitió el experimento por sí mismo. Poco después de que Pascal y Jacqueline volvieran a París se unieron a su padre, a la sazón nombrado consejero de Estado. Por entonces la familia recibió la visita un tanto formal de Descartes. El y Pascal charlaron acerca de muchas cosas, incluso del barómetro.

Poca cordialidad existía entre los dos. Por una parte, Descartes se oponía abiertamente a creer que el famoso Essai pour les coniques hubiera sido escrito por un muchacho de 16 años. Por otra parte, Descartes sospechaba que Pascal le había usurpado la idea y los experimentos barométricos cuando discutía sus posibilidades en cartas dirigidas a Mersenne. Como ya hemos dicho, Pascal había asistido a las sesiones semanales del Padre Mersenne desde que tenía 14 años. Una tercera causa de enemistad era proporcionada por sus antipatías religiosas. Descartes, que sólo había recibido atenciones de los jesuitas, tenía por ellos gran aprecio; Pascal, que seguía al devoto Jansen, odiaba a los jesuitas más que el demonio odia el agua bendita. Y finalmente, según la cándida  Jacqueline, tanto su hermano como Descartes sentían celos recíprocos. La visita fue más bien un frío acontecimiento.

El buen Descartes, sin embargo, dio a su joven amigo algunos excelentes consejos con un espíritu verdaderamente cristiano. Aconsejó a Pascal que siguiera su propio ejemplo y que permaneciera en cama todos los días hasta las once de la mañana. Para el arruinado estómago de Pascal describió una dieta que se componía tan sólo de caldo. Pero Pascal no hizo el menor caso de estos consejos, posiblemente debido a que procedían de Descartes. Una de las cosas de que Pascal más carecía era del sentido del humor. Por entonces comenzó a decaer el interés que Jacqueline sentía por el genio de su hermano, y en el año 1648, a la impresionante edad de 23 años, Jacqueline declaró su intención de trasladarse a Port-Royal, cerca de París, el principal asiento de los jansenistas de Francia para ingresar en un convento. Su padre se opuso tenazmente al proyecto, y la devota Jacqueline concentró sus frustrados esfuerzos en su pobre hermano. Jacqueline sospechaba que Blaise no estaba tan completamente convencido como ella desearía, y parece que estaba en lo cierto.

Por entonces la familia volvió a Clermont durante dos años. En estos dos rápidos años, Pascal parece haber sido casi un ser medio humano, a pesar de las admoniciones de su hermana Jacqueline de que se entregara totalmente al Señor. Hasta el recalcitrante estómago, sometido a una disciplina racional, dejó de atormentarle durante largos meses. Se dice por algunos y se niega violentamente por otros que Pascal, durante este sano intermedio y durante algunos años más tarde, descubrió los usos predestinados del vino y de las mujeres. El nada confiesa, pero estos bajos rumores pueden haber sido nada más que rumores Después de su muerte, Pascal pasó rápidamente a la hagiocracia cristiana, y todos los ensayos para descubrir los hechos de su vida como ser humano fueron rápidamente anulados por facciones rivales, una de las cuales se esforzaba por demostrar que era un fanático devoto y la otra un ateo escéptico, aunque ambas declarasen que Pascal era un santo que no pertenecía a esta tierra. Durante estos venturosos años la morbosa santidad de Jacqueline continuó actuando sobre su frágil hermano.

Por un capricho de la ironía, Pascal, que al presente se había convertido, dio lugar a que se cambiasen los papeles, y empujó a su muy piadosa hermana a que ingresara en el convento, que ahora quizá parecía menos deseable. Como es natural, esto no es la interpretación ortodoxa de lo que habría sucedido, pero quien no sea un ciego partidario de una secta o de otra, cristianismo o ateísmo, encontrará más racional la explicación de que existían malsanas relaciones entre Pascal y su hermana soltera y no las sancionadas por la tradición. Cualquier lector moderno de los Pensées debe quedar sorprendido, por ciertas cosas que, o bien escapan completamente a nuestros más reticentes antepasados o eran ignoradas por ellos en su más discreta benevolencia. Las cartas revelan muchas cosas que sería mejor hubieran quedado enterradas.

Los desatinos de Pascal en los Pensées acerca de la “lujuria” le descubren de un modo completo, y también lo atestiguan los hechos bien probados de su furor completamente antinatural cuando veía a su hermana casada Gilberte acariciar a sus hijos. Los modernos psicólogos, no menos que los antiguos con sentido común, han hecho notar frecuentemente la notable relación entre la represión sexual y el morboso fervor religioso. Pascal sufría de ambos y sus inmortales Pensées son un brillante, aunque algunas veces incoherente testimonio de sus excentricidades puramente fisiológicas. Si el hombre hubiera sido suficientemente humano para no contrariar a su naturaleza hubiera podido vivir, desarrollar todo lo que en él había, en lugar de ahogar su mejor mitad bajo un cúmulo de misticismo sin significación y absurdas observaciones sobre la “grandeza y miseria del hombre”.  Siempre sin reposo, la familia volvió a París en 1650. Al año siguiente el padre murió.

Pascal aprovechó la ocasión para escribir a Gilberte y su marido un largo sermón acerca de la muerte en general. Esta carta ha sido muy admirada. No necesitamos reproducirla aquí, pues el lector que desee formar su opinión, puede fácilmente encontrarla. Es un misterio difícil de comprender por qué esa pedante efusión de confusa y cruel moralidad, aprovechando la muerte de un pariente posiblemente muy querido, haya podido despertar la admiración en lugar de desprecio para su autor, igual que el amor de Dios que la carta rezuma ad nauseam.

Nada puede decirse acerca de los gustos, y aquellos a quienes es grato la clase de cuestiones que Pascal expone en su carta pueden gozar de ella, que al fin y al cabo es una obra maestra de autorrevelación en la literatura francesa. Un resultado más práctico de la muerte del padre fue la oportunidad que se le ofreció a Pascal para administrar las propiedades y reanudar sus relaciones con sus parientes. Alentado por su hermana Jacqueline marchó a Port-Royal, pues su padre ya no podía oponerse. Sus dulces relaciones con el alma de su hermano se hallaban ahora salpicadas por una discordia muy humana acerca de la división de las propiedades. Una carta del año anterior (1650) revela otra faceta del carácter reverente de Pascal o posiblemente su envidia por Descartes.

Deslumbrado por la brillantez de Cristina de Suecia, Pascal humildemente puso su máquina calculadora a los pies de la “más grande Princesa del mundo”, declarando en frases cálidas que era tan eminente desde el punto de vista intelectual como social. No se sabe lo que Cristina hizo con la máquina, pero lo cierto es que no invitó a Pascal para reemplazar a Descartes. Al fin, el 23 de noviembre de 1654, Pascal se convirtió realmente. De acuerdo con algunos relatos vivió durante tres años una vida que casi no lo era. Otros autores parecen en cambio aceptar que no hay nada de cierto en esta tradición y que su vida no fue tan dura como se cuenta y que, aparte de que haya sido un enfermo, hubo en ella algo más que Matemática y santidad. El día de su conversión guiaba un coche de cuatro caballos y éstos se espantaron.

Los caballos saltaron el parapeto del puente de Neuilly, pero los tirantes se rompieron y Pascal quedó en la carretera. Para un hombre del temperamento místico de Pascal esta feliz salvación de una muerte violenta fue considerada como una advertencia del cielo que le impulsó a salvarse del precipicio moral en el que, víctima de su morboso autoanálisis, se imaginaba hallarse. En un pequeño fragmento de pergamino escribió algunos oscuros sentimientos de mística devoción, y desde entonces lo colocó cerca de su corazón como un amuleto para que le protegiera de las tentaciones y le recordara la bondad de Dios que le había salvado a él, miserable pecador, de la boca del infierno. Desde entonces creyó estar en gracia, y durante el resto de su vida sufrió alucinaciones en las que veía un precipicio ante sus pies. Jacqueline, ahora novicia del convento de Port-Royal, vino en ayuda de su hermano. En parte por su propia cuenta, en parte debido a los ruegos persuasivos de su hermana, Pascal volvió la espalda al mundo y fijó su residencia en Port-Royal para dedicar su talento a la contemplación de “la grandeza y miseria del hombre”.

Esto ocurría en 1654, cuando Pascal tenía 31 años. Antes, habiendo desechado para siempre las torturas de la carne y de la mente, había completado su más importante contribución a la Matemática, el Cálculo de probabilidades creado en unión con Fermat. Para no interrumpir la historia de su vida demoraremos por el momento la exposición de este suceso. Su vida en Port-Royal era al menos sana, aunque no tan sana como podría haber deseado, y la rutina llena de orden benefició considerablemente su precaria salud. Se hallaba en Port-Royal cuando escribió las famosas Cartas Provinciales inspiradas por el deseo de ayudar a salvar a Arnauld, la luminosa guía de la institución, de la acusación de herejía.

Estas famosas cartas (la primera de las 18, fue impresa el 23 de enero de 1656), son obras maestras de habilidad para la controversia y se dice que infringieron a los jesuitas un golpe del que su Sociedad jamás ha vuelto a reponerse totalmente. Sin embargo, cualquiera puede observar con sus propios ojos que la Sociedad de Jesús aun florece. Puede, pues, dudarse de que tales Cartas tengan la potencia mortífera atribuidas a ellas por críticos simpatizantes de su intensa preocupación por las cuestiones relativas a su a la miseria del hombre, Pascal fue aún capaz de hacer excelente matemática, aunque considerase el cultivo de toda ciencia como una vanidad que debía ser expulsada por sus malos efectos sobre el alma. De todos modos, volvió a huir una vez más, pero sólo una, de la gracia de Dios, en ocasión del famoso caso de la cicloide.

Curva bellamente proporcionada (descrita por el movimiento de un punto fijo sobre la circunferencia de una rueda que gira apoyándose sobre una línea recta, sobre el pavimento liso) se dice que apareció en la literatura matemática en 1501, cuando Charles Bouvelles la describió en relación con la cuadratura del círculo. Galileo y su discípulo Viviani la estudiaron y resolvieron el problema de construir una tangente a la curva en cualquier punto (un problema que Fermat resolvió inmediatamente que quedó planteado) y Galileo aconsejó su empleo como arco para los puentes. Desde que es común el uso del hormigón armado para los arcos de cicloide, se ven con frecuencia en los altos viaductos. Por razones mecánicas (desconocidas por Galileo), el arco de cicloide es superior a cualquier otro en construcción. Entre los hombres famosos que han estudiado la cicloide se encuentra Sir Christopher Wren, el arquitecto de la catedral de San Pablo, quien determina la longitud de cualquier arco de esta curva y su centro de gravedad, mientras Huygens, por razones mecánicas, la introdujo en la construcción de los relojes de péndulo.

Uno de los más bellos descubrimientos de Huygens (1629-1695) está en relación a la cicloide. Dicho autor demostró que es la tautócrona, es decir la curva que cuando está colocada hacia arriba semeja un cuenco, en la que los puntos colocados en cualquier parte de ella se deslizan hacia el punto más bajo por la influencia de la gravedad en el mismo tiempo. Para explicar sus elegantes y singulares propiedades se han producido infinitas disputas entre los pendencieros matemáticos que se desafiaban recíprocamente para resolver este o aquel problema en relación con ella. La cicloide, por tanto, ha sido llamado “la Helena de la Geometría”, en recuerdo de la mujer de Menelao, de quien se dice que por ella “se lanzaron al mar un millar de barcos”. Entre otras angustias que afligieron al endeble Pascal recordaremos el insomnio persistente y los padecimientos dentales, en una época en que la dentistería era ejercida por el barbero con un par de tenazas y la fuerza bruta.

Estando una noche en vela (1658) por las torturas del dolor de muelas, Pascal comenzó a pensar furiosamente en la cicloide, intentando eliminar de su mente el terrible dolor. Con sorpresa se dio cuenta de que el dolor había desaparecido. Interpretando este hecho como una señal del cielo de que no era pecado para su alma pensar en la cicloide, Pascal siguió sus trabajos. Durante ocho días se entregó a la geometría de la cicloide y consiguió  resolver muchos de los principales problemas en relación con ella. Algunos de los hechos por él descubiertos fueron publicados con el seudónimo de Amos Dettonville, desafiando a los matemáticos franceses e ingleses. En su trato con sus rivales, Pascal no era siempre tan escrupuloso corno podía haber sido. Éste fue su último vuelo por la Matemática y su única contribución a la ciencia después de vivir en Port-Royal. El mismo año (1658) se sintió más gravemente enfermo de lo que había estado en toda su atormentada vida. Incesantes dolores de cabeza le impedían conciliar el sueño. Sufrió durante cuatro años, viviendo cada vez más ascéticamente. En junio de 1662 cedió su propia casa a una familia pobre que padecía viruela, como un acto de abnegación y fue a vivir con su hermana casada.

El 19 de agosto de 1662 su infortunada existencia terminó entre terribles convulsiones. Pascal murió a la edad de 39 años. El post mortem reveló lo que ya se esperaba, respecto al estómago y órganos vitales, descubriéndose también una grave lesión en el cerebro. A pesar de todo esto Pascal pudo llevar a cabo una gran obra en Matemática y en la ciencia y ha dejado un nombre en la literatura que es aún respetado después de haber transcurrido tres siglos. Las bellas cosas que la Geometría debe a Pascal, con la posible excepción del “hexagrama místico”, pudieron haber sido realizadas por otros hombres. Tal puede decirse especialmente de la investigación de la cicloide. Después de la invención del Cálculo, estos estudios han venido a ser incomparablemente más fáciles de lo que habían sido antes y se incluyen en los manuales como simples ejercicios para los jóvenes estudiantes. Pero en la creación que hizo, junto con Fermat, de la teoría matemática de la probabilidad, Pascal descubrió un nuevo mundo. Parece muy probable que Pascal será recordado cada vez más por esta importante invención, cuando su fama de escritor haya sido olvidada. Los Pensées y las Cartas Provinciales, aparte de sus excelencias literarias, se dirigen principalmente a un tipo mental que rápidamente se está extinguiendo.

Los argumentos en pro o en contra de un punto particular son considerados por una mente moderna como trivialidades no convincentes, y las cuestiones a las que Pascal se entregó con tan ferviente celo ahora aparecen extraordinariamente ridículas. Si los problemas que discutió sobre la grandeza y miseria del hombre fueran problemas tan profundamente importantes como los entusiastas han pretendido, y no simples pseudoproblemas planteados místicamente e incapaces de solución, no parece probable que pudieran ser resueltos por moralizaciones absurdas. Pero en su teoría de las probabilidades, Pascal plantea y resuelve un problema importante. El de llevar al puro azar, que superficialmente parece no obedecer a leyes, al dominio y la ley del orden, de la regularidad, y actualmente esta sutil teoría parece hallarse en las raíces del conocimiento humano no menos que en la fundación de la ciencia física.

Sus ramificaciones se hallan por todas partes, desde la teoría de los quanta a la epistemología. Los verdaderos fundadores de la teoría matemática de la probabilidad fueron Pascal y Fermat, quienes desarrollaron los principios fundamentales de los problemas en una interesante y abundante correspondencia durante el año 1654. Esta correspondencia se encuentra en las Oeuvres de Fermat (editadas por P. Tannery y C. Henry, volumen II, 1904). Las cartas muestran que Pascal y Fermat participaron igualmente en la creación de la teoría. Sus soluciones correctas de los problemas difieren en detalles, pero no en principios fundamentales.

Debido a la tediosa enumeración de los casos posibles en un cierto problema, de “puntos”, Pascal intentó seguir un atajo y cayó en el error. Fermat señaló la equivocación que Pascal reconoció. La primera carta de la serie se ha perdido, pero la causa de la correspondencia es bien conocida. El problema inicial de que partió toda la vasta teoría fue propuesto a Pascal por el caballero De Méré, un jugador profesional o poco más. El problema era el de los “puntos”: cada uno de los dos jugadores (juego de los dados) necesita cierto número de puntos para ganar el juego. Si  suspenden el juego antes de que termine, ¿cómo pueden ser divididas las apuestas entre ellos?

El resultado (números de puntos) obtenido por cada jugador corresponde al momento de la suspensión, y el problema consiste en determinar la probabilidad que cada jugador tiene, en una determinada fase del juego, de ganarlo. Se acepta que los jugadores tienen igual probabilidad de ganar un punto. La solución tan sólo exige un sólido sentido común; la matemática de la probabilidad interviene cuando buscamos un método para enumerar los casos posibles sin que realmente hayan ocurrido. Por ejemplo ¿cuántas “manos” diferentes, consistentes cada una en tres doses y otras tres cartas, ninguna dos, existen en una baraja común de 52 naipes? O ¿cuántas veces al arrojar 10 dados se obtienen 3 ases 5 doses y 2 seises? Un tercer juego del mismo tipo es resolver ¿cuántos brazaletes diferentes pueden hacerse engarzando 10 perlas, 7 rubíes, 5 esmeraldas y 8 zafiros, si las piedras de cada tipo no pueden distinguirse? Este detalle de encontrar el número de veces que puede hacerse una determinada cosa o cuántas veces puede suceder, pertenece a lo que se llama análisis combinatorio.

Su aplicación a la probabilidad es manifiesta. Supongamos, por ejemplo, que deseamos conocer las probabilidades de obtener dos “ases” y un “dos” en una sola tirada con tres dados. Si nosotros conocemos el número total de formas (6 * 6 * 6 = 216) en que los tres dados pueden caer, y también el número de formas (digamos n para que el lector pueda encontrarlo por sí mismo) en que pueden obtenerse 2 “ases” y 1 “dos”, la probabilidad es n/216. (Aquí n es 3, de modo que la probabilidad es 3/216). Antoine Gombaud, caballero De Méré, inspirador de estos estadios, es descrito por Pascal como un hombre que tenía una buena inteligencia sin ser matemático, mientras Leibniz, que parece tener pocas simpatías por el alegre caballero, le considera como un hombre de mente penetrante, un filósofo y un jugador, en una combinación desusada. En relación con los problemas de análisis combinatorio y de probabilidad, Pascal hizo abundante uso del triángulo aritmético:

1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
1 6 15 20 15 6 1

en el cual los números de cada fila, después de las dos primeras, se obtienen de los que se encuentran en la fila precedente copiando debajo los terminales 1 y sumando los pares sucesivos de números de izquierda a derecha; así, en la fila quinta 5 = 1 + 4, 10 = 4 + 6, 10 = 6 + 4, 5 = 4 + 1. Los números en la fila n, después de l, son el número de las diferentes combinaciones2 que pueden hacerse con n cosas distintas tomadas, de una en una, de dos en dos, de tres en tres… Por ejemplo, 10 es el número de pares diferentes de cosas que pueden ser combinadas con cinco cosas distintas. Los números de la fila n son también los coeficientes del desarrollo de (1 + x)n por el teorema del binomio (llamado de Newton), de modo que para n = 4, 2 Combinaciones de n objetos, tomados de 1 en 1, de 2 en 2, de 3 en 3, etc., es el número de grupos que se pueden tomar con los n objetos, de manera que un grupo se diferencia de otro por lo menos en un objeto. Por ejemplo: cuatro objetos A, B, C, D, se pueden combinar de dos en dos en las seis formas siguientes. AB, AC, AD, BC, BD y CD (N. del T.). 

(1 + x) 4 = 1 + 4x + 6x2 + 4x3 + x4

El triángulo tiene otras numerosas e interesantes propiedades. Aunque era conocido antes de los tiempos de Pascal se le suele dar su nombre para recordar el ingenioso uso que Pascal hizo de él en las probabilidades. La teoría que se originó en una disputa de jugadores es ahora la base de muchas empresas que consideramos más importantes que el juego, incluso todos los tipos de seguros, estadística matemática y su aplicación a la biología. Y mediciones en la educación así como en la física teórica moderna. Ya no pensamos que un electrón se encuentra en un determinado lugar en un determinado instante, sino que calculamos su probabilidad de estar en una región determinada. Una ligera reflexión mostrará que hasta las más simples mediciones que hacemos (cuando intentamos medir alguna cosa exactamente) son de carácter estadístico.

El humilde origen de esta teoría matemática extraordinariamente útil es típico de otras muchas cosas. Algunos problemas al parecer triviales, que fueron resueltos al principio por una vana curiosidad, conducen a generalizaciones profundas que, como en el caso de la nueva teoría estadística del átomo en la teoría de los cuantos, pueden ser la causa de que se revise toda nuestra concepción del universo físico, o, como ha sucedido con la aplicación de los métodos estadísticos a los tests de la inteligencia y a la investigación de la herencia, pueden inducirnos a modificar nuestras primitivas creencias referentes a la “grandeza y miseria del hombre”.

Como es natural, ni Pascal ni Fermat pudieron prever cuáles serían las consecuencias de sus descubrimientos. Toda la trama de la Matemática está tan íntimamente entrelazada que no podemos desenredarla y eliminar algún hilo determinado que no sea de nuestro gusto, sin peligro de destruir todo el tejido. Pascal, sin embargo, hizo una aplicación de las probabilidades (en los Pensées) que para su época era rigurosamente práctica. Se trata de su famosa “apuesta”. La “esperanza matemática” en un juego es el valor de las apuestas multiplicado por la probabilidad de ganar el juego. Según Pascal el valor de la felicidad eterna es infinito. Razonaba de este modo: Aun cuando sea muy pequeña la probabilidad de obtener la felicidad eterna siguiendo una vida religiosa, ya que la esperanza es infinita (cualquier fracción finita del infinito es también infinita), recomendaremos a todos que sigan tal tipo de vida.

Siguió su propio consejo, pero como si quisiera demostrar que no lo había seguido completamente se plantea en otro lugar de los Pensées esta pregunta totalmente escéptica. ¿Es probable la probabilidad? Es aburrido como él, dice en otro lugar, dedicarse a tales bagatelas, aunque haya tiempo para ellas. La dificultad de Pascal es que no siempre veía cuando se trataba de bagatelas, como en su apuesta contra Dios, y cuando profundizaba en su trabajo, como en el caso del azar en el juego que el caballero De Méré le planteó.

Descubrimiento de Nuevos Metales: Fosforo Cobalto y Niquel

HISTORIA DEL DESCUBRIMIENTO DE NUEVOS METALES EN EL SIGLO XVII

A pesar de todas estas trampas, la «era del flogisto» produjo algunos muy importantes descubrimientos. Un alquimista de aquel tiempo descubrió un nuevo elemento: el primer (y último) alquimista que, de una forma definida, identificó un elemento y explicó exactamente cuándo y cómo lo había encontrado. El hombre fue un alemán llamado Hennig Brand.

Algunas veces se le ha llamado el «último de los alquimistas», pero en realidad hubo muchos alquimistas después de él. Brand, al buscar la piedra filosofal para fabricar oro, de alguna forma se le ocurrió la extraña idea de que debía buscarla en la orina humana.

Recogió cierta cantidad de orina y la dejó reposar durante dos semanas. Luego la calentó hasta el punto de ebullición y quitó el agua, reduciéndolo todo a un residuo sólido. Mezcló tampoco de este sólido con arena, calentó la combinación fuertemente y recogió el vapor que salió de allí.

Cuando el vapor se enfrió, formó un sólido blanco y cerúleo. Y, asómbrense, aquella sustancia brillaba en la oscuridad. Lo que Brand había aislado era el fósforo, llamado así según una voz griega que significa «portador de luz».

Relumbra a causa de que se combina, espontáneamente, con el aire en una combustión muy lenta. Brand no comprendió sus propiedades, naturalmente, pero el aislamiento de un elemento (en 1669) resultó un descubrimiento espectacular y causó sensación. Otros se apresuraron a preparar aquella sustancia reluciente. El propio Boyle preparó un poco de fósforo sin conocer el precedente trabajo de Brand.

El siguiente elemento no fue descubierto hasta casi setenta años después. Los mineros del cobre en Alemania, de vez en cuando encontraban cierto mineral azul que no contenía cobre, como les ocurría, por lo general, a la mena azul del cobre.

Los mineros descubrieron que este mineral en particular les hacía enfermar a veces (pues contenía arsénico, según los químicos descubrieron más tarde). Los mineros, por tanto, le llamaron “cobalto”, según el nombre de un malévolo espíritu de la tierra de las leyendas alemanas.

Los fabricantes de cristal encontraron un empleo para aquel mineral: confería al cristal un hermoso color azul y una industria bastante importante creció con aquel cristal azul. En la década de 1730, un médico sueco llamado Jorge Brandt empezó a interesarse por la química del mineral.

Lo calentó con carbón vegetal, de la forma comente que se usaba para extraer un metal de un mineral, y, finalmente, lo condujo a un metal que se comportaba como el hierro.

Era atraído por un imán: la primera sustancia diferente al hierro que se había encontrado que poseyera esta propiedad. Quedaba claro que no se trataba de hierro, puesto que no formaba  oxidación de tono pardo rojizo, como lo hacía el hierro.

Brandt decidió que debía de tratarse de un nuevo metal, que no se parecía a ninguno de los ya conocidos. Lo llamó cobalto y ha sido denominado así a partir de entonces. Por tanto, Brand había descubierto el fósforo y Brandt encontrado el cobalto (el parecido de los apellidos de los dos primeros descubridores de elementos es una pura coincidencia).

A diferencia de Brand, Brandt no era alquimista. En realidad, ayudó a destruir la Alquimia al disolver el oro con ácidos fuertes y luego recuperando el oro de la solución. Esto explicaba algunos de los, trucos que los falsos alquimistas habían empleado. Fue un discípulo de Brandt el que realizó el siguiente descubrimiento.

Axel Fredrik Cronstedt se hizo químico y también fue el primer mineralógolo moderno, puesto que fue el primero en clasificar minerales de acuerdo con los elementos que contenían. En 1751, Cronstedt examinó un mineral verde al que los mineros llamaban kupfernickel («el diablo del cobre»).

Calentó los residuos de este mineral junto con carbón vegetal, y también él consiguió un metal que era atraído por un imán, al igual que el hierro y el cobalto. Pero mientras el hierro formaba compuestos, pardos y el cobalto azules, este metal producía compuestos que eran verdes. Cronstedt decidió que se trataba de un nuevo metal y lo llamó níquel, para abreviar lo de kupfernickel.

Se produjeron algunas discusiones respecto de si el níquel y el cobalto eran elementos, o únicamente compuestos de hierro y arsénico. Pero este asunto quedó zanjado, en 1780, también por otro químico sueco, Torbern Olof Bergman.

Preparó níquel en una forma más pura que lo que había hecho Cronstedt, y adujo mi buen argumento para mostrar que el níquel y el cobalto no contenían arsénico y que eran, por lo contrario, unos nuevos elementos. Bergman constituyó una palanca poderosa en la nueva química y varios de sus alumnos continuaron el descubrimiento de nuevos elementos.

Uno de éstos fue Johan Gottlieb Gahn, que trabajó como minero en su juventud y que siguió interesado por los minerales durante toda su vida. Los químicos habían estado trabajando con un mineral llamado «manganeso», que convertía en violeta al cristal. («Manganeso» era una mala pronunciación de «magnesio», otro mineral con el que lo habían confundido algunos alquimistas.) Los químicos estaban seguros que el mineral violeta debía contener un nuevo metal, pero no fueron capaces de separarlo calentando el mineral con carbón vegetal.

Finalmente, Gahn encontró el truco, pulverizando el mineral con carbón de leña y calentándolo con aceite. Como es natural, este metal fue llamado manganeso. Otros discípulo de Bergman, Pedro Jacobo Hjelm, realizó mucho mejor este mismo truco con una mena a la que llamaron «molibdena».

Este nombre deriva de una voz griega que significa «plomo», porque los primeros químicos confundieron este material con mena de plomo. Hjelm extrajo del mismo un metal blanco argentado, el cual, ciertamente, no era plomo.

Este nuevo metal recibió el nombre de «molibdeno». El tercero de los discípulos de Bergman descubridores de elementos no fue sueco. Se trataba del español don Fausto de Elhúyar. Junto con su hermano mayor, José, estudió una mena pesada llamada «tungsteno» (palabra sueca que significa «piedra pesada»), o «volframio».

Calentando la mena con carbón vegetal, los hermanos, en 1783, aislaron un nuevo elemento al que, en la actualidad, según los países, se denomina tungsteno o volframio. Bergman tuvo todavía una conexión indirecta con otro nuevo metal.

En 1782, un mineralógolo austríaco, Franz Josef Müller, separó de una mena de oro un nuevo metal que tenía algún parecido con el antimonio. Envió una muestra a Bergman, como hacían los más importantes mineralógolos de su época. Bergman le aseguró que no era antimonio. En su momento, el nuevo metal recibió el nombre de telurio, de una voz latina que significaba “tierra”. Mientras todos estos elementos hablan sido descubiertos en Europa, también iba a ser descubierto uno en el Nuevo Mundo.

En 1748, un oficial de Marina español llamado Antonio de Ulloa, cuando viajaba de Colombia a Perú en una expedición científica, encontró unas minas que producían unas pepitas de un metal blanquecino. Se parecía algo a la plata, pero era mucho más pesado.

El parecido con la plata (y tomando como base esta palabra española) hizo que se diese a este nuevo metal el nombre de platino. Al regresar a España, Ulloa se convirtió en un destacado científico y fundó el primer laboratorio en España dedicado a la Mineralogía.

También se hallaba interesado por la Historia Natural y por la Medicina. Además, acudió a Nueva Orleáns como representante del rey español, Carlos III, cuando España adquirió la Luisiana, que antes pertenecía a Francia, tras la Guerra India, en Estados Unidos.

Incluso los antiguos metales conocidos por los alquimistas tuvieron una nueva trayectoria en aquellos primeros tiempos de la Química moderna. En 1746, un químico alemán, Andreas Sigismund Marggraff, preparó cinc puro y describió cuidadosamente sus propiedades por primera vez; por tanto, se le ha atribuido el descubrimiento de este metal.

Probablemente, Marggraff es más conocido, sin embargo, por encontrar azúcar en la remolacha. Con un microscopio detectó pequeños cristales de azúcar en aquel vegetal, y, al mismo tiempo, proporcionó al mundo una nueva fuente de azúcar.

Marggraff fue el primero en emplear el microscopio en la investigación química. Lo que Marggraff había hecho con el cinc, lo realizó un químico francés, Claude-François Geoffrey, con el antiguo metal del bismuto. En 1753, aisló el metal y describió cuidadosamente su comportamiento, por lo que, algunas veces, se le ha atribuido el descubrimiento de este elemento.

LISTA DE ELEMENTOS QUÍMICOS DESCUBIERTOS EN EL SIGLO XVII: (Era del Flogisto)

Fósforo                             1669 Brand
Cobalto                             1735 Brandt
Platino                              1748 Ulloa
Níquel                               1751 Cronstedt
Hidrogeno                          1766 Cavendish
Nitrógeno                           1772 Rutherford
Oxígeno                             1774 Priestley
Cloro                                 1774 Scheele
Manganeso                         1774 Gahn
Molibdeno                           1781 Hjelm
Telurio                               1782 MüIIer Juan José de
Tungsteno                          1783 Elhúyar Fausto de Elhúyar

Fuente Consultada: En Busca de los Elementos de Isaac Asimov

USO DE LOS METALES EN LA INDUSTRIA

Aluminio Se usa desde hace pocas décadas y ocupa el tercer tugar detrás del hierro y el cobre. Utensilios, aleaciones livianas para aviación, cables eléctricos de alta tensión.
Antimonio: Endurece el plomo de los tipos de imprenta, productos medicinales. Ignífugos. Se dilata al enfriar.
Arsénico Insecticidas, productos medicinales, industria química.
Berilio Pigmentos, cristales, fuegos artificiales. Berilio Único metal liviano con alto punto de fusión, ventana para rayos X, industrias atómicas, aleaciones con cobre, resistentes a vibraciones externas.
Bismuto Aleaciones de muy bajo punto de fusión (37°C); productos farmacéuticos.
Boro Ácido bórico. Endurecimiento del acero.
Cadmio Endurecimiento de los conductores de cobre. Aleaciones de bajo punto de fusión. Galvanoplastia.
Calcio Materiales de1 construcción, sales diversas.
Cesio Materiales refractarios livianos, semiconductores, aleaciones duras y refractarias. Cesio Células fotoeléctricas.
Cinc Galvanoplastia,- pilas.
Circonio Usos atómicos, aceros, lámparas-flash.
Cobalto Piezas de cohetes y satélites, herramientas para altas temperaturas, radioisótopos.
Cobre Conductores eléctricos, bronces diversos.
Columbio Sólo en laboratorio. Duro y pesado.
Cromo Acero inoxidable, galvanoplastia. Estaño Envoltorios, soldaduras, bronces.
Estroncio Fuegos artificiales, refinerías de azúcar.
Galio Termómetros para alta temperatura (funde antes de los 35° y hierve a más de 1.900°C.
Germanio Transistores, válvulas termoiónicas.
Hafnio Filamentos de tungsteno.
Hierro Acero, construcción. El metal por excelencia.
Indio Galvanoplastia, aleaciones resistentes a los esfuerzos y la corrosión. –
Litio Aleaciones ligeras, pilas atómicas, síntesis orgánica.
Magnesio Aleaciones ligeras, productos medicinales, síntesis orgánicas.
Manganeso Aceros especiales (extrae el oxígeno y el azufre de la mezcla, dando un metal limpio y sólido). Usos químicos y eléctricos.
Mercurio Termómetros, barómetros, aleaciones dentarias (amalgamas).
Molibdeno Aceros especiales.
Níquel Bronces blancos, monedas, revestimientos de metales.
Oro Alhajas, monedas, espejos telescópicos.
Osmio Metal pesado para aleaciones de la familia del platino.
Paladio Aleaciones con el platino, aceros, catálisis química.
Plata Espejos, alhajas, bronces.
Platino Catálisis, contactos eléctricos, alhajas.
Plomo Aleaciones para soldaduras, cañerías, pinturas.
Plutonio Radiactivo, bomba atómica.
Polonia Radiactivo, compuestos luminosos.
Potasio Metal alcalino, fertilizantes.
Radio Radiactivo, medicina, pinturas luminosas.
Renio Pares termoeléctricos, sustituto del cromo en los aceros.
Rodio Aleaciones, cátodos, pares termoeléctricos.
Rubidio Productos medicinales.
Selenio Células fotoeléctricas, baterías solares.
Silicio Vidrio, aleaciones duras y refractarias.
Sodio Jabones, sal de mesa, bicarbonato de sodio.
Talio Compuestos químicos venenosos, insecticidas, raticidas
Tántalo Filamentos para lámparas, aleaciones refractarias.
Tecnecio Primer elemento producido por él hombre.
Teluro Semiconductores, fotopilas, aleaciones diversas.
Titanio Pigmentos, compuestos muy refractarios, aceros especiales.
Torio Radiactivo, aleaciones.
Tungsteno Filamentos para lámparas, herramientas duras.
Uranio Radiactivo, pilas atómicas.
Vanadio: Aceros Especiales

AMPLIACIÓN DEL TEMA
ALGUNAS GENERALIDADES SOBRE EL FÓSFORO:

Fue descubierto por Brandt en 1669 mientras buscaba la piedra filosofal cuyo objeto era transformar cualquier sustancia en oro. Obtuvo fosfato a partir de la orina, luego de un proceso laborioso. Pero el primer trabajo publicado con cierto fundamento científico pertenece a D. Krafft. El fósforo, como elemento, fue reconocido por Lavoisier en 1777.

El fósforo no se encuentra libre en la naturaleza, pero sí combinado en forma de compuestos inorgánicos como la fosforita (fosfato de calcio) y la fluorapatíta (fluofosfato de calcio).

El fósforo es el principal constituyente de los huesos y dientes; además se encuentra formando parte de los tejidos animales y vegetales y constituye parte de las fosfoproteínas y otros compuestos orgánicos.

La sangre, la yema de huevo, la leche, los nervios y el cerebro contienen fósforo en forma de lecitinas. Por esta razón, los animales y las plantas necesitan fósforo para desarrollarse.
Una parte del fósforo contenido en el organismo se elimina diariamente por la orina y los excrementos, en la proporción de 2 gramos cada 24 horas.

El uso más común del fósforo consiste en la fabricación de cerillas, las cuales son de dos tipos: comunes y de seguridad. Las primeras encienden por frotamiento sobre cualquier superficie áspera y se componen de un pabilo de algodón, madera o cartón, cuya extremidad está recubierta por una sustancia combustible compuesta con fósforo o sulfuro de fósforo, como sustancia inflamable, bióxido de plomo o clorato de potasio, como materia oxidante, dextrina y una sustancia colorante.

Los fósforos de seguridad, llamados también cerillas suecas, sólo contienen una mezcla oxidante, sin fósforo. Este último elemento se coloca sobre la superficie del raspador de la caja, de modo que para producir la llama es imprescindible que ambas partes se pongan en contacto. La mezcla con que se recubre el palillo contiene clorato de potasio como sustancia oxidante, trisulfuro de antimonio, cofa y algo de creta para aumentar la masa. La superficie del raspador contiene fósforo rojo, trisulfuro de diantimonio y vidrio para aumentar la aspereza.

Los abonos fosfatados son muy útiles en la agricultura. Se trata de una serie de sustancias naturales o artificiales que se agregan a las tierras agotadas para reponer en ellas las sustancias desaparecidas. Generalmente esas tierras han perdido (por excesivo cultivo o por acarreos), algunos de los elementos químicos indispensables, como el nitrógeno, fósforo, potasio o calcio, lo que las imposibilita para la plantación o la siembra.

Uno de los abonos más importantes por su riqueza en fósforo y calcio, es el fosfato neutro de calcio. Lamentablemente el fosfato tricoideo (como los huesos) no puede utilizarse porque es prácticamente insolubfe y entonces las plantas no pueden asimilarlo. Debe por lo tanto tratarse con ácido sulfúrico para convertirlo en difosfato monocálcico soluble.

Los huesos molidos (fosfato tricálcico), tratados con ácido sulfúrico, se tornan en sustancias solubles, es decir en fosfatos y sulfatos. Mezclados constituyen el abono denominado superfosfato de calcio.

En los laboratorios de las cátedras de química, durante las lecciones acerca del fósforo, se realizan importantes experimentos. El profesor muestra un trozo de fósforo rojo y otro blanco y hace notar sus diferencias de color, consistencia, solubilidad en sulfuro de carbono, fusibilidad, etc. Para esta última propiedad, se corta debajo del agua con un cortaplumas, un pedazo de fósforo blanco y otro de fósforo rojo. Sometidos ambos a la temperatura de 55°C, el fósforo blanco funde, en tanto que el rojo permanece inalterable.

Para demostrar la oxidación del fósforo en presencia del aire, se disuelve un trozo de fósforo blanco en sulfuro de carbono, se impregnan papeles con esta solución y se dejan secar sobre un trípode; evaporado el solvente, el fósforo se inflamará y con él, los papeles.

La oxidación en presencia del oxígeno: se echa un trozo dé fósforo en agua y se funde al baño de María; se hace circular una corriente de aire y se comprobará la inflamación.

La fosforescencia del fósforo se comprueba de la siguiente manera: se toma un matraz de un litro, se llena con agua hasta la mitad, y se coloca en su interior un trozo de fósforo blanco. Se lleva el agua a ebullición, se oscurece el cuarto y se observará, especialmente en el cuello del matraz, el fenómeno de la fosforescencia.

La diferencia de inflamabilidad entre el fósforo blanco y el rojo se comprueba como sigue: sobre una chapa de cobre de 30 centímetros de largo, dispuesta sobre un trípode, se coloca en cada extremo un trocito de fósforo blanco y rojo, respectivamente; se calienta el centro de la chapa con llama baja de un mechero Bunsen y se podrá observar la inflamación casi espontánea del primero y tardía en el segundo. Para comprobar la acción del cloro sobre el fósforo, se introduce en un frasco lleno de cloro una capsulita que contenga un trozo de fósforo blanco; se observa la inflamación espontánea del fósforo.

Los envenenamientos por el fósforo blanco, constituyen un riesgo para los obreros que trabajan en las fábricas que preparan el producto y de los que lo manejan y transforman.

Las fábricas de cerillas deben estar .muy bien ventiladas, pues las emanaciones fosforadas que, sin esa precaución, podrían aspirarse, intoxicarían más o menos a los operarios. Éstos deben cuidar mucho de la higiene, no comer sin lavarse bien las manos y cambiarse las ropas de trabajo. Será preciso que no dejen su comida dentro del local de la fábrica y a la hora del almuerzo buscarán en el exterior un lugar aireado.
Una dolencia muy común en los que trabajan con el fósforo, es la denominada necrosis fosfórica, que ataca al hueso dé la mandíbula y que suele necesitar operación quirúrgica.

Cuando sobrevienen envenenamientos por ingestión de fósforo, mientras llega el médico, puede administrarse una solución de 2 gramos de sulfato de cobre en un litro de agua, con frecuencia y abundancia, pues el cobre se depositará sobre las partículas de fósforo haciéndolo inofensivo o debilitando considerablemente su acción. Suprímase en absoluto la leche, los aceites y las grasas.

La fosfamina, que es un fósforo gaseoso, se prepara como sigue: en un baloncito de unos 300 ce. se ponen 20 ce. de potasa cáustica en solución acuosa concentrada y seis u ocho blobuliílos de fósforo; se cierra el baloncito con un tapón bihoradado que trae dos tubos acodados, uno estrecho que se sumerge en la potasa y otro ancho y largo (de desprendimiento), cuyo extremo anterior está doblado en U y el interior termina junto al tapón. Se hace pasar una corriente de hidrógeno y el tubo ancho se sumerge en un recipiente con agua caliente. Se calienta el baloncito hasta una ebullición moderada. Se desprende fosfamina.

Grande es la importancia que tiene en todo el universo la fabricación del fósforo, no tan sólo aplicable a la preparación de cerillas, abonos, etc., sino también como agente reductor.

Pasos del Metodo Cientifico Etapas Metodo Experimental Caracteristicas

Pasos del Método Científico o Experimental

El método científico o experimental es una secuencia lógica de pasos que se siguen para que el trabajo del químico tenga validez. Luego de una observación exhaustiva y reiterada del fenómeno, surge el planteo del problema a investigar. El científico enuncia, según el análisis “a priori” del problema, cuál sería, a su criterio, la hipótesis, es decir, la respuesta más probable a la cuestión.

Antes efectúa una recopilación de datos, por ejemplo de trabajos de otros investigadores relacionados con el tema. A partir de allí, comienza a diseñar y comprobar la veracidad de la hipótesis. Si la hipótesis se cumple, el científico puede arribar a conclusiones de valor predictivo. Es decir que frente al mismo planteo puede anticipar cuál será la respuesta.

Muchas veces ocurre que la hipótesis no se cumple y debe reformularse. La validez de una o varias hipótesis permite, en muchos casos, enunciar leyes o teorías universales.

En la actualidad, el planteo de un problema científico surge a veces del análisis de trabajos anteriores referidos al tema. Éstos dejan casi siempre algún punto sin resolver, que es observado y tomado como punto de partida de una nueva investigación.

La ciencia sólo es posible cuando existe la libertad de cuestionar y de dudar de lo que siempre se ha considerado verdadero, y cuando ella misma es capaz de abandonar viejas creencias si contrarían los nuevos descubrimientos.

A modo de sintesis antes de entrar a explicar el método, vamos a indicar la secuencia ordenada de pasos para lograr el estudio científico de un fenómeno determinado. Podemos decir que hay 10 pasos fundamentales, y que mas abajo se explicarán, a saber:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO,

PASO 2. LA BÚSQUEDA DE INFORMACIÓN,

PASO 3. LA FORMULACIÓN DE HIPÓTESIS,

PASO 4. LA COMPROBACIÓN EXPERIMENTAL,

PASO 5. EL TRABAJO EN EL LABORATORIO,

PASO 6. EL TRATAMIENTO DE LOS DATOS,

PASO 7. EL ANÁLISIS DE LOS FACTORES,

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS,

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS,

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS

INTRODUCCIÓN: OBSERVACIÓN Y EXPERIMENTACIÓN

La ciencia comienza por observar, observación realizada con la máxima exactitud y la mayor frecuencia posible. Sólo así pueden discernirse claramente las características del problema que se estudia y ponerse en evidencia las incógnitas que plantea.

Luego de hacer las observaciones adecuadas, el paso siguiente es desarrollar alguna explicación de lo que se ha visto. Cada explicación recibe el nombre de hipótesis y por tanta es normal que haya varias hipótesis aparentemente encuadradas en los hechos observados. Todas ellas surgen por un proceso mental de deducción que, en cierto sentido no sería más que un ejercicio de imaginación.

En la vida diaria la gente muy a menudo se conforma con suposiciones ¡sólo porque las hace ella! En la ciencia es necesario suponer todas las explicaciones aceptables de los hechos, para luego seleccionar las mejor orientadas hacia la investigación propuesta.

Esta selección se efectúa de acuerdo con otro proceso mental estudiado por la Lógica, conocido por deducción. Cada hipótesis se examina por turno para ver qué consecuencias implicaría en caso de ser cierta, qué ocurriría si fuera correcta. Es como obligar a la hipótesis a que se pronuncie.

metodo experimetal

Luego, una etapa crítica del método científico: la verificación, o sea la comprobación de las diversas hipótesis mediante nuevas observaciones. Éste es un proceso real y concreto, manual y sensorio.

Siempre que sea posible, las comprobaciones se hacen en forma de experimentos, es decir, siempre por control del investigador. Si la hipótesis que se intenta probar no nos anticipa los acontecimientos registrados por la experimentación se la considera inútil y se la descarta. Si, en cambio, resultara correcta, sólo provisionalmente se la consideraría verdadera, esto es, mientras no aparezca algún hecho nuevo que obligue a modificarla.

Cuando las hipótesis no pueden ser comprobadas en las estrictas condiciones de un experimento habrá que esperar el resultado de nuevas experiencias cuando la evolución de los fenómenos naturales lo permita. En astronomía, por ejemplo, no es posible obligar a los cuerpos celestes a moverse y a ubicarse en situación de demostrar alguna hipótesis particular. pero, cuando se dan esas exposiciones, es posible controlar la efectividad de las hipótesis que se habían formulado.

A medida que se acumulan observaciones, sea durante experimentos o no, pueden aparecer casos que muestren la debilidad de la hipótesis anteriormente aceptada. Entonces resulta necesaria la formulación de otra hipótesis y se repite todo el procedimiento de nuestro método científico como si se tratara de un círculo, quizás una espiral, pues este nuevo ciclo se desarrolla en un nivel de mayor conocimiento.

Esto nos introduce en la idea de que la “verdad” científica es sólo relativa; es una aproximación y será abandonada y reemplazada por otra “verdad” nueva y mejor, cada vez que resulte necesario. Esto explica lo que para algunos es el obstáculo más grande referente a la ciencia: que sus conclusiones ¡no son definitivas! Los científicos están siempre dispuestos y aun entusiastas para aceptar nuevas explicaciones si éstas se acercan más a los hechos conocidos.

La verdad científica, entonces, no es definitiva. Representa las etapas alcanzadas en cada oportunidad en la búsqueda del conocimiento. El nivel de éxito obtenido en esta búsqueda se medirá siempre por el grado de correlación que exista entre teoría y realidad. La verdad científica representa lo mejor que pudo hacerse en un momento determinado. No tiene autoridad para juzgar futuras investigaciones en el campo en que se aplica.

La aceptación de una hipótesis científica como cierta no surge de su elegancia ni de la sinceridad o entusiasmo con que ha sido presentada; tampoco reposa en factor personal alguno, como podría ser respecto de nuestra propia hipótesis o de la de alguien a quien respetamos.

La única razón válida para aceptar una hipótesis como cierta es que apoyada en hechos conocidos, pueda anticipar otros. Esto es bastante distinto de la idea de verdad que se aplica en otros órdenes de la vida, y es una de las características distintivas de la actitud científica.

https://historiaybiografias.com/linea_divisoria5.jpg

LOS PASOS DEL MÉTODO CIENTÍFICO-EXPERIMENTAL:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO
Una vez planteado el fenómeno que se quiere estudiar, lo primero que hay que hacer es observar su aparición, las circunstancias en las que se produce y sus características. Esta observación ha de ser reiterada (se debe realizar varias veces), minuciosa (se debe intentar apreciar el mayor número posible de detalles), rigurosa (se debe realizar con la mayor precisión posible) y sistemática (se debe efectuar de forma ordenada).

PASO 2. LA BÚSQUEDA DE INFORMACIÓN
Como paso siguiente, y con objeto de reafirmar las observaciones efectuadas, deben consultarse libros, enciclopedias o revistas científicas en los que se describa el fenómeno que se está estudiando, ya que en los libros se encuentra e conocimiento científico acumulado a través de la historia. Por este motivo, la búsqueda de información } la utilización de los conocimientos existentes son imprescindibles en todo trabajo científico.

PASO 3. LA FORMULACIÓN DE HIPÓTESIS
Después de haber observado el fenómeno y de haberse documentado suficientemente sobre el mismo, el científico debe buscar una explicación que permita explicar todas y cada una de las características de dicho fenómeno.

Como primer paso de esta fase, el científico suele efectuar varias conjeturas o suposiciones, de las que posteriormente, mediante una serie de comprobaciones experimentales, elegirá como explicación del fenómeno la más completa y sencilla, y la que mejor se ajuste a los conocimientos generales de la ciencia en ese momento. Esta explicación razonable y suficiente se denomina hipótesis científica.

PASO 4. LA COMPROBACIÓN EXPERIMENTAL
Una vez formulada la hipótesis, el científico ha de comprobar que ésta es válida en todos los casos, para lo cual debe realizar experiencias en las que se reproduzcan lo más fielmente posible las condiciones naturales en las que se produce el fenómeno estudiado. Si bajo dichas condiciones el fenómeno tiene lugar, la hipótesis tendrá validez.

instrumentos de presley cientifico

Lámina de «Observations on differents kinds of air» del gran científico Joseph Priestley, mostrando uno de sus experimentos para demostrar los efectos de la combustión, putrefacción y respiración en una planta de menta  y en ratones.

PASO 5. EL TRABAJO EN EL LABORATORIO

Una de las principales actividades del trabajo científico es la de realizar medidas sobre las diversas variables que intervienen en el fenómeno que se estudia y que son susceptibles de poder medirse. Si te fijas, en el experimento anterior no se ha podido tomar ninguna medida, por lo cual es conveniente repetir la experiencia en un lugar donde pueda tomarse, es decir, en el laboratorio.

Estas experiencias realizadas en los laboratorios se denominan experiencias científicas, y deben cumplir estos requisitos:

a) Deben permitir realizar una observación en la que puedan tomarse datos.

b) Deben permitir que los distintos factores que intervienen en el fenómeno (luminosidad, temperatura, etc.) puedan ser controlados.

c) Deben permitir que se puedan realizar tantas veces como se quiera y por distintos operadores.Habitualmente, en ciencias experimentales, los trabajos de laboratorio permiten establecer modelos, que son situaciones o supuestos teóricos mediante los que se efectúa una analogía entre el fenómeno que ocurre en la Naturaleza y el experimento que realizamos.

PASO 6. EL TRATAMIENTO DE LOS DATOS
Las medidas que se efectúan sobre los factores que intervienen en un determinado fenómeno deben permitirnos encontrar algún tipo de relación matemática entre las magnitudes físicas que caracterizan el fenómeno que se estudia. Para llegar a esa relación matemática, los científicos suelen seguir dos pasos previos: el análisis de los factores y la construcción de tablas y de gráficos.

PASO 7. EL ANÁLISIS DE LOS FACTORES
El estudio en profundidad de un fenómeno requiere en primer lugar la determinación de todos los factores que intervienen en él. Para que ese estudio se realice en la forma más sencilla, se fija una serie de magnitudes que no varían (variables controladas) y se estudia la forma en que varía una magnitud (variable dependiente) cuando se produce una variación de otra magnitud (variable independiente).

Así, por ejemplo, si lo que queremos es estudiar el alargamiento que experimenta un resorte cuando colgamos diversas pesas de uno de sus extremos, hay un conjunto de magnitudes que podemos considerar invariables (la temperatura del recinto donde hacemos el experimento, la presión atmosférica dentro del mismo, la humedad relativa del aire, etc.), que corresponden a las variables controladas. En este caso, la longitud del alargamiento del resorte será la variable dependiente, y el peso que colgamos de su extremo será la variable independiente.

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS
La construcción de tablas consiste en ordenar los datos numéricos obtenidos sobre las variables independiente y dependiente. Siempre se han de especificar las unidades en las que se miden dichas variables, para lo cual se utilizan los paréntesis a continuación de sus nombres.

En el caso del resorte, la tabla podría ser así:
La representación gráfica consiste en representar los datos de las medidas en un sistema de ejes cartesianos, donde normalmente la variable independiente se hace corresponder con el eje X, mientras que la variable dependiente se hace corresponder con el eje Y.

Se llama ajuste de la gráfica al procedimiento mediante el cual se determina la línea que pasa por los puntos que se han representado o la más cercana a ellos.

En la mayoría de los casos, las gráficas que se obtienen son líneas rectas, lo que indica que la relación entre las magnitudes físicas representadas es de la forma y = k • x. donde k es una constante. En otros casos, la relación entre ambas magnitudes es de tipo parabólico, lo que matemáticamente representa que y = k • x2; o de tipo hiperbólico, cuya formulación es de la forma x • y = k.

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS
El análisis de los datos y la comprobación de las hipótesis lleva a los científicos a emitir sus conclusiones, que pueden ser empíricas, es decir, basadas en la experiencia, o deductivas, es decir, obtenidas tras un proceso de razonamiento en el que se parte de una verdad conocida hasta llegar a la explicación del fenómeno.
Una vez obtenidas dichas conclusiones, éstas deben ser comunicadas y divulgadas al resto de la comunidad científica para que así sirvan como punto de arranque de otros descubrimientos, o como fundamento de una aplicación tecnológica práctica .

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS
El estudio científico de todos los aspectos de un fenómeno  natural lleva a la elaboración de leyes y teorías.

Una ley científica es una hipótesis que se ha comprobado que se verifica.

Una teoría científica es un conjunto de leyes que explican un determinado fenómeno.

Así, por ejemplo, la hipótesis comprobada de que el are iris se forma debido a la refracción que experimenta la li al atravesar las gotas de agua de la lluvia, es una ley que s enmarca dentro de un conjunto de leyes que rigen otros fenómenos luminosos (reflexión, dispersión, etc.). Este con junto se conoce como teoría sobre la luz.

Tanto las leyes como las teorías deben cumplir los siguientes requisitos:

1. Deben ser generales, es decir, no sólo deben explica casos particulares de un fenómeno.
2. Deben estar comprobadas, es decir, deben estar avaladas por la experiencia.
3. Deben estar matematizadas, es decir, deben pode expresarse mediante funciones matemáticas.

Las teorías científicas tienen validez hasta que son incapaces de explicar determinados hechos o fenómenos, o hasta que algún descubrimiento nuevo se contradice con ellas, a partir de ese momento, los científicos empiezan a plantearse la elaboración de otra teoría que pueda explicar eso; nuevos descubrimientos.

Rene Descartes

René Descartes creó la geometría analítica, también denominada «geometría cartesiana», en la que los problemas geométricos pueden traducirse a forma algebraica. Se trataba de un método extremadamente poderoso para resolver problemas geométricos y, a la postre, también dinámicos (el problema del movimiento de cuerpos), un método que conservamos más de tres siglos después.En más de un sentido la contribución de Descartes preparó el camino para el gran descubrimiento de Newton y Leibniz: el del cálculo diferencial (o infinitesimal) e integral, el universo de las derivadas y las integrales; un instrumento  incomparable para la indagación matemática y física.

Instrumentos de Boyle
Lámina donde se muestran los instrumentos del laboratorio de Boyle

La divulgación científica: Al científico no le basta con ver, debe convencer. Un descubrimiento científico sólo adquiere importancia si es comunicado en fomia inteligible. Las primeras publicaciones que se registran referidas a la Química provienen de los alquimistas.

Estos químicos de la Edad Media, que procuraban transmutar (convertir) cualquier metal en oro, escribieron dos tipos de manuscritos: míos, puramente prácticos, y otros, donde intentaban aplicar las teorías de la naturaleza de la materia a los problemas alquímicos. Aunque en ambos casos apelaron a una mezcla de magia y ciencia como metodología para sus investigaciones, muchas técnicas allí descriptas siguen utilizándose en la actualidad.

En 1597 un alquimista alemán, Andreas Libau (1540-1616), conocido como Libavius, escribió el que se considera el primer libro de Química, Alchemia, que resumía los hallazgos medievales en esta materia sin caer en el misticismo.

Recién a partir del siglo XVIII las publicaciones de libros y revistas se convirtieron en el vehículo usual para la transmisión científica.

La primera revista del mundo dedicada exclusivamente a la Química fue Annales de Chimie, de 1789. La versión española se publicó dos años después, en Segovia, y fue dirigida por Joseph Proust.

Entre los libros de la época cabe destacar el famoso Traite Élementaire, escrito por Lavoisier en 1789, en el que puede advertirse hasta qué punto Lavoisier se había adelantado a la ley de los volúmenes de combinación, enunciada veinte años después por Gay-Lussac.

En sus páginas se puede leer con claridad que la reacción para la formación de agua requiere exactamente dos volúmenes de hidrógeno para reaccionar por completo con un volumen de oxígeno. Sólo después de veinte años Gay-Lussac retoma estas ideas y, mediante el estudio de la reacción entre el cloro y el hidrógeno, deduce su ley. ¿Pero por qué Lavoisier no llegó a enunciar la ley de los volúmenes de combinación?.

Las respuestas probables a esta pregunta son dos. Primero, Lavoisier fue guillotinado apenas cinco años después de la publicación de su libro; segúndo, hasta el momento de su muerte el cloro no había sido identificado como tal.

En la actualidad, las publicaciones científicas son muy numerosas y se renuevan constantemente. Y, además, resulta fundamental el aporte de los medios informáticos. Gracias a ellos se ha logrado integrar textos, imágenes, sonidos y movimientos, y también es posible el intercambio de trabajos y opiniones científicas de grupos procedentes de todas partes del mundo.

https://historiaybiografias.com/linea_divisoria5.jpg

CONOCIMIENTO CIENTÍFICO: La ciencia puede extender enormemente el alcance de los sentidos humanos, como podemos ver en las páginas de este libro, que se ocupan de algunos de los extraordinarios instrumentos científicos disponibles hoy.

También puede aumentar su capacidad de prever los acontecimientos. Esto es de gran utilidad para el hombre porque le evita eventuales dificultades y porque le permite obtener los resultados previstos. De este modo la ciencia aumenta enormemente los medios a disposición del hombre para la consecución de sus fines, sean éstos constructivos o destructivos.

La ciencia, empero, no puede ocuparse de lo inobservable. Puede ocuparse de los electrones, que no son visibles directamente, porque éstos dejan huellas observables en la cámara de Wilson.

Pero aunque la ciencia se interese por los electrones no puede ocuparse de proposiciones sobre ángeles aunque se diera el caso de que fueran ángeles guardianes quienes orientaran nuestra conducta individual. Como por definición los ángeles no pertenecen al mundo natural, es evidente que no pueden ser estudiados por el método científico.

Tampoco reemplaza la ciencia a la sabiduría. No puede juzgar entre los distintos fines que nos fijamos individual o colectivamente, aunque puede darnos los medios para llegar a ellos con mayor facilidad. Por lo menos hasta el presente la ciencia no está en condiciones de decirle al hombre qué es lo mejor para ver, lo mejor para gustar. Algunos piensan que jamás podrá hacerlo aunque el conocimiento científico a menudo nos predispone a las consecuencias de nuestras elecciones.

La ciencia no es una mera acumulación de conocimientos enciclopédicos. Tampoco es exactamente sentido común —por lo menos en lo que se refiere a algunas de sus conclusiones— como nos habremos percatado luego de leer los artículos sobre la naturaleza física del mundo en que vivimos.

Es, sin embargo, completa y totalmente “sensata” en su dependencia del método de ensayo y error. No es un cuerpo de doctrina que se apoye en la autoridad de personas. No es la mera búsqueda de ingeniosos aparatos aunque éstos resulten una consecuencia del avance del conocimiento científico.

La ciencia es una manera de preguntar. Es un método para avanzar en el conocimiento de fenómenos que pueden ser observados y medidos. Es una aventura en lo desconocido, en pos de la comprensión buscada, comprensión a la que llegaremos mediante ensayos y errores, operando siempre que sea posible en las condiciones controladas de un experimento.

https://historiaybiografias.com/linea_divisoria5.jpg

PARA SABER MAS…
EXPERIMENTO CIENTÍFICO

Un buen ejemplo de investigación científica mediante experiencias sensatas  es el modo en que Galileo estudió la fuerza de gravedad, llegando a descubrir la ley del movimiento uniformemente acelerado de los graves: un mentís clamoroso a la teoría de Aristóteles, que consideraba la velocidad de la caída proporcional al peso.

El plano inclinado que construyó para el estudio del movimiento gravitacional es relativamente simple desde el punto de vista tecnológico: consiste en una viga de seis metros de largo, de buena madera (para impedir que se combe) y que puede inclinarse a voluntad, dotada de una acanaladura cuidadosamente alisada para reducir al mínimo la fricción de las bolas.

Este aparato tan sencillo tiene ya las características de un moderno instrumento científico, porque permite modular a voluntad cualquier parámetro notable de la experiencia. La inclinación, por ejemplo, puede reducirse haciendo más lentos los tiempos de caída, o bien aumentarse hasta rozar la verticalidad (de este modo, la caída libre se convierte en un simple caso límite).

metodo cientifico

El primer plano inclinado de Galileo estaba provisto de campanillas
para señalar los tiempos de caída de la bola.

Al principio, el científico afrontó el problema central (es decir, la comprobación exacta de los tiempos de caída) situando en el plano inclinado a intervalos regulares unas campanillas, de modo que sonasen al paso de la bola. Galileo, además de haber estudiado música, era también un avezado intérprete y contaba con la sensibilidad de su oído, muy entrenado para percibir ritmos e intervalos sonoros. Pero se trataba evidentemente de una solución aún primitiva, insuficiente para llegar a una cuantificación precisa de los tiempos.

El ingenio de Galileo resolvió brillantemente el problema con la construcción de un reloj de agua. Hacía coincidir el comienzo de la caída del grávido con la apertura de un grifo colocado bajo un tanque (mantenido a presión constante en todas las mediciones).

Al final de la caída, bastaba con cerrar el grifo y ocuparse de pesar el líquido almacenado; de este modo transformaba las cantidades de tiempo en cantidades de peso, mensurables y cotejables con gran precisión. Galileo descubrió así que, aunque una mayor inclinación del plano hacía aumentar la velocidad de caída, la relación entre espacios recorridos y tiempos empleados se mantenía constante para cualquier inclinación (por lo tanto, también en el caso límite de la caída libre).

Descubrió sobre todo que esta aceleración no depende del peso, en contra de lo que afirmaba Aristóteles.

Revolucion cientifica Trabajo de Galvani

Grabado mostrando diferentes experimentos de Luigi Galvani (Viribus Electricitatis in Motu Musculari Commentarius [Comentarios relativos a los efectos de la electricidad sobre el movimiento muscular] 1791) acerca de los efectos de la electricidad en ranas y pollos.

La observación, la experimentación y la construcción de teorías y modelos

La recolección de datos es una empresa importante para sostener cualquier trabajo científico. Estos datos pueden ser obtenidos por la observación sistemática de situaciones espontáneas o por la experimentación, que consiste en provocar el fenómeno que se quiere estudiar. Lo importante es ver cómo estos datos se utilizan para formular teorías o modelos.

En la actualidad, casi todos los filósofos de la ciencia están de acuerdo en que los datos por sí solos no explican nada, e incluso hay muchos que ponen en duda que existan datos puros, ya que la observación, sea espontánea o provocada, está siempre condicionada por el conocimiento del observador.

Así, por ejemplo, si un químico se encuentra cerca de una industria que produce acero, olerá dióxido de azufre y podrá inferir qué le puede ocurrir a su cuerpo o al ambiente ante la presencia de esta sustancia. En cambio, un niño que pase por el mismo lugar solo percibirá olor a huevo podrido. Como se puede notar, tanto uno como otro participan de la misma situación, pero la interpretación varía enormemente en función de los conocimientos que cada uno posee acerca del fenómeno que observan.

Además del papel decisivo que tienen los conocimientos del observador, no se debe olvidar que muchas de las observaciones que se realizan se hacen en forma indirecta, es decir, a través de la utilización de instrumentos, indicadores, etcétera, que, en muchos casos, distorsionan el fenómeno.

En la experimentación, el fenómeno es preparado por el mismo investigador, quien fija las condiciones, el sitio y el momento de su realización y, además, puede repetirlo numerosas veces.

Dentro de las ciencias de la vida, la mejor manera de poner a prueba las teorías que se relacionan con el funcionamiento de los organismos es con la ayuda de experimentos. Pero hay ciencias en las que los experimentos no son posibles, como es el caso de las ciencias que estudian la historia de los seres vivos (evolución, Paleontología), en las cuales es preciso hacer observaciones adicionales para corroborar una hipótesis.

Otra forma de comprobar una teoría en Biología consiste en utilizar datos provenientes de fuentes distintas; por ejemplo: si para establecer relaciones filogenéticas en distintos grupos de organismos se utilizan evidencias morfológicas, se pueden buscar pruebas adicionales para validar esa hipótesis recurriendo a evidencias bioquímicas, biogeográficas, etcétera.

Hay que destacar que, si bien el surgimiento del método experimental fue fundamental para el avance de la ciencia moderna, este no es el único método utilizado por los científicos. Las metodologías que se utilizan en las investigaciones son variadas, con lo que se descarta la existencia de un único método científico universal.

Laboratorio de Lavoisier

Lavoisier en su laboratorio, experimentando sobre la respiración de un hombre en reposo (dibujo de Marie Anne Lavoisier).

RESPECTO A LA HIPÓTESIS DE INVESTIGACIÓN

El paso que sigue a la formulación del problema de investigación es enunciar las hipótesis que guiarán la investigación. Sin embargo, antes de dar este paso, será necesario fijar algunos criterios que permitan enunciar hipótesis adecuadas.

Como ya saben, una hipótesis es una respuesta posible aun interrogante planteado, que aún no ha sido puesta a prueba. Sin embargo, no todas las respuestas posibles para un problema de investigación son hipótesis.

Requisitos de una hipótesis
Para ser una hipótesis, la respuesta al problema debe reunir determinadas condiciones. Éstas son algunas de ellas. * Ser formulada en un lenguaje preciso y claro. Supongamos, por ejemplo, que alguien enuncia la siguiente hipótesis: “Los científicos que violan el código de ética profesional de la ciencia tienden a mostrar comportamientos amorales en otros ámbitos sociales”. Así formulada, la hipótesis tiene dos problemas: por un lado, no es evidente a qué se llama comportamientos amorales, ya que la expresión no está definida y puede tener más de una interpretación; por otro lado, no es muy claro el sentido de la expresión tienden a (¿cuántos comportamientos amorales tendría que manifestar un científico para que se configure una tendencia?).

* Ser coherente con el conjunto de los conocimientos disponibles sobre el problema de investigación. Por ejemplo, no seria muy interesante formular la hipótesis de que “La ciencia no se enfrenta con ningún problema ético” cuando son conocidos los debates que se plantean continuamente en torno de cuestiones éticas en el ámbito científico. i Hacer avanzar el conocimiento existente. Una hipótesis que reprodujera una afirmación unánimemente aceptada y comprobada en la comunidad científica no sería muy útil para saber más sobre el tema.
Por ejemplo, hoy no tendría sentido indagar la hipótesis de que “La Tierra gira alrededor del Sol”.

* Ser coherente con los objetivos del proyecto de investigación y, por lo tanto, con el tipo de proyecto de que se trate. Por ejemplo, si el proyecto es de naturaleza exploratoria -es decir que sus objetivos también lo son-, no se puede construir una hipótesis explicativa para ese proyecto y esos objetivos.

* Poder ser corroborada o refutada por los datos que se reúnen durante el proceso de investigación. Éste es un requisito muy importante, que los filósofos de la ciencia han debatido y fundamentado extensamente. En el apartado que sigue, se analiza con mayor profundidad.

DIFUSIÓN: Cuando el científico ha comunicado un resultado, su conocimiento permite a los tecnólogos imaginar aplicaciones a distintos sectores de la técnica. Otras veces marcha adelante el tecnólogo y descubre una propiedad desconocida; y es trabajo del científico explicar esa propiedad elaborando una teoría. En espectroscopia hay ejemplos de situaciones como ésas: primero se observaron las líneas espectrales y más tarde se desarrolló la teoría que las explica.

En el campo de la Metalurgia hay innumerables ejemplos: desde hace siglos se conoce y se usa la operación de templar un acero; pero la teoría del fenómeno sólo se conoce desde apenas unas décadas.

Otras veces el tecnólogo presenta sus requerimientos al científico, y éste investiga hasta determinar las condiciones que deben cumplirse para satisfacer aquellos requerimientos.

Esto ha ocurrido con frecuencia en los últimos tiempos, por ejemplo en la resolución del problema de la reentrada en la atmósfera de una cápsula espacial: la alta temperatura desarrollada por la fricción con el aire funde cualquier material ordinario, y fue necesario desarrollar nuevos materiales con las propiedades adecuadas. Algunas veces los científicos responden satisfactoriamente a las demandas de los tecnólogos; otras, no. Los problemas y dificultades se renuevan continuamente: nunca estará todo resuelto, pues cada solución abre nuevos caminos, y recorrerlos crea a su vez nuevos problemas.

Experimento con plantas

Grabado reproduciendo un experimento sobre la respiración de plantas y animales, incluido en
Legons sur les phénoménes de la vie communs aux animaux et aux végétaux de Claude Bernard (1878).

¿Qué es cultura científica?
Cada persona que quiere ser útil a su país y a sus semejantes tiene, entre otras cosas, la responsabilidad de adquirir una educación en ciencia (en nuestro caso, a través de la Física y de la Química) que la transforma en una persona capaz de:

• conocer los principios, las leyes y las teorías más generales y sus aplicaciones prácticas más difundidas;

• interpretar fenómenos naturales frecuentes;

• advertir y comprender la incidencia del desarrollo científico y tecnológico sobre las estructuras económicas y sociales en todo el mundo;

• reconocer la universalidad de la ciencia, que por una parte no reconoce fronteras nacionales, y por otra constituye el medio necesario para que la comunidad que forma la nación atienda y resuelva problemas propios;

• detectar, en su región o en su país, problemas susceptibles de ser tratados científicamente, y reconocer la propia responsabilidad en su planteamiento y en la búsqueda de soluciones;

• distinguir entre una simple creencia o una opinión, o una superstición, y una verdad científica;

• comprender que una verdad científica no es una verdad inmutable sino modificable por avances científicos que elaboren una nueva verdad científica más general, que puede abarcar a la anterior;

• gustar del placer intelectual de advertir un fenómeno natural, hacer coherentes partes aparentemente inconexas, plantear una hipótesis plausible y verificarla experimental o teóricamente;

• gustar del placer intelectual de difundir conocimientos y actitudes científicas entre las personas que lo rodean;

• adquirir el amor por la verdad que caracteriza al auténtico pensamiento científico;

• relacionar las explicaciones científicas con otras manifestaciones de la cultura, tales como la filosofía o el arte.

El desarrollo científico y técnico de los últimos tiempos ha ampliado el concepto y las exigencias de “persona culta”, que ya no se limitan al campo de la literatura, las artes o las humanidades exclusivamente.

Fuente Consultada:
Atlas Universal de la Filosofía – Manual Didáctico de Autores, Textos y Escuelas
Biología y Ciencias de la Tierra Estructura – Ecología – Evolución Polimodal
Formación Ética y Ciudadana Ética, Ley y Derechos Humanos 3° EGB
Elementos de Física y Química Maiztegui-Sabato

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. “Y entonces Gauss, ¿qué?”, preguntó el asombrado von Humboldt. “Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.”

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo “Halla la suma de los 100 primeros números enteros”.

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por “malgastar”su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al “análisis situs” y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte “shock”. Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra “Disquisitiones Arithmeticae”, obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del “nuevo planeta”, llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Marx y la Sobrepoblación de Malthus Ideas Teoria Marxista

Marx y la Sobrepoblación de Malthus

ECONOMÍA Y POBLACIÓN
Las postulaciones malthusianas y neomalthusianas tuvieron una respuesta en los análisis de Marx y en los trabajos posteriores de las ciencias sociales que utilizan igual metodología. Ya en 1845 se encuentran en su trabajo, la “Ideología Alemana”, las primeras referencias al papel de la población en el proceso histórico, del cual la considera uno de los factores condicionantes.

Malthus la sobrepoblacion

Pero, a pesar de la importancia que le asigna a la población, a diferencia de Malthus, Marx sostiene que no puede existir una ley demográfica universal sino que a cada forma de producción le corresponde una ley de población particular; dedicó, sin embargo, especial atención al problema bajo la forma de producción capitalista, investigando el concepto del “ejército de reserva del trabajo”, “superpoblación relativa” o “población excedente relativa”.

 Para él, la causa de la superpoblación existente debe rastrearse en la forma de producción imperante en el régimen capitalista. Esa superpoblación relativa surge de las características del proceso de acumulación del capital y sus mecanismos reguladores, entre ellos las crisis y las recesiones.

Cuando crece la acumulación, crece la inversión de capital, o sea las “fuentes de trabajo” y con ello la demanda de mano de obra. Si este proceso continúa en forma indefinida se llega fatalmente a la ocupación plena, puesto que la mano de obra no es una “mercancía” que pueda producirse, en general, de ‘un modo creciente para una demanda creciente. Desde luego, hay muchos ejemplos de “producción” de mano de obra bajo las condiciones del sistema esclavista, desde el comercio de esclavos en África hasta los establecimientos que, en el Sur de los Estados Unidos, se dedicaban a la “procreación” y cría de esclavos, tal como si fueran ganado.

Aun bajo el sistema capitalista, se conoce el ejemplo de los piratas que secuestraban numerosos campesinos chinos para vendérselos a contratistas de mano de obra en el Oeste estadounidense. Pero ésta no puede ser la regla dentro del sistema capitalista, basado, esencialmente, en la contratación de mano de obra libre.

Al mantenerse un estadio de ocupación plena, naturalmente suben los salarios, puesto que su demanda excede a su posible oferta. Pero si esto continúa, a través de una inversión creciente, el aumento de los salarios terminará por liquidar las ganancias, y asi el sistema capitalista se disolverá, por sí mismo, al moverse como el azúcar al girar en el agua. Sin embargo, los hechos demuestran que tal cosa no ocurre.

Antes de que se llegue a ese punto crítico, nos dice Marx, el descenso de las ganancias provocará en los capitalistas una lógica reacción a retraer la inversión “a la espera de tiempos mejores”. Tal retracción —se continúa en este razonamiento uno de los “modelos” marxistas de explicación de las crisis capitalistas— traerá una reacción en cadena. Y así estamos en la crisis o recesión, donde se detiene la inversión, se cierran “fuentes de trabajo” y se produce desocupación en masa.

Mediante éste y otros mecanismos que llevan a la crisis o a la “recesión” (crisis atenuada), se restablece continuamente el equilibrio entre oferta y demanda de trabajo o, lo que es lo mismo, de mano de obra. Como éste es un equilibrio desigual, o sea, que los mecanismos tienden a conservar una situación donde la (oferta de trabajo es siempre superior a la demanda, dentro del sistema capitalista siempre hay, en algún grado, desocupación. Siempre hay, por lo tanto, un “ejército de reserva” dentro de la masa proletaria, que tiende a disminuir cuando la inversión creciente (período de “auge”) crea más fuentes de trabajo y a aumentar cuando se produce la crisis o recesión.

De tal manera, entre la población económicamente activa y el ejército de reserva, hay para Marx una constante interrelación cuyo signo es claro según las fases del ciclo económico: en los momentos de prosperidad aumenta la primera a costa del segundo, y en las épocas de contracción se produce el movimiento inverso. Para Marx, a diferencia de Malthus y otros economistas clásicos, la relación de la población con el sistema capitalista parece ser la de un factor más, de ninguna manera externo al sistema mismo, sino un elemento de éste para regular el nivel de salarios y mantener las tasas de ganancia.

Este nivel de superpoblación relativa debería desaparecer al transformarse el sistema productivo, aunque Marx explícito poco y nada acerca del desarrollo de la población. Por supuesto que Marx basó su argumentación ciñéndose a la realidad concreta de la Europa del siglo XIX; trasladado el problema al Tercer Mundo, son otros economistas y sociólogos los que, dentro de esta línea de argumentación, reformularán estas postulaciones de acuerdo con la realidad de los países dependientes.

cuadro superpoblacion de Malthus

Fuente Consultada:
Enciclopedia de los Grandes Fenómenos del Siglo XX Tomo 1

Biografia y Teoria de Malthus Teoria Poblacional Economista Britanico

Biografia y Teoría de Malthus Sobre la Población
Economista Británico

Thomas Robert Malthus (1766-1834) fue un economista británico, clérigo y demógrafo, que estudió en el Jesus College, de la Universidad de Cambridge. Malthus ofició en la parroquia de Albury, en Surrey, en 1798, cargo que desempeñó muy poco tiempo. De 1805 hasta su muerte fue catedrático de Economía Política e Historia Moderna en el colegio de la East India Company en Haileybury.

Malthus fue educado según los principios pedagógicos de Jean-Jacques Rousseau, de quien su padre era íntimo amigo, completó sus estudios en el Jesus College de Cambridge. Después de graduarse en filosofía y teología, fue ordenado pastor anglicano y estuvo durante un tiempo al frente de la parroquia de Albury.

teoria malthusiana

BIOGRAFÍA: Robert Malthus, “el fundador de las teorías demográficas” , nació en 1766 en Albury, cerca de Dorking, Inglaterra. Su padre era un gentilhombre rural, persona instruida y bien relacionada con los filósofos de su tiempo, principalmente con Hume y J. J. Rousseau, quienes cuando R. Malthus tenía tres semanas se presentaron en la mansión de su padre llamada «The Rookery».

Su padre intentó educarle según los principios del Emilio de Rousseau, su amigo. A los dieciséis años fue puesto bajo la tutela de Gilbert Wakefield, un pastor herético, discípulo también de Rousseau, y que fue encarcelado por expresar públicamente sus deseos de que la Revolución Francesa invadiera Inglaterra. Algunas cartas que se conservan de estos años expresan el gran afecto y admiración de Malthus por este pastor excéntrico.

Wakefield había sido profesor en el Jesús College de la universidad de Cambridge y como consecuencia de ello y debido a su influencia, Malthus ingresó también en este colegio en 1784, a los dieciocho años.

En 1788 fue ordenado pastor de la Iglesia Anglicana y en 1793 entró en el Jesús College como profesor; en Cambridge residió hasta 1803, cuando le fue otorgada una rectoría en Waleby que conservó hasta el final de su vida, pero en donde nunca vivió debido a su gran actividad en círculos intelectuales.

Como decíamos antes, en 1793 fue designado miembro del equipo de dirección del Jesus College, puesto al que tuvo que renunciar en 1804 al contraer matrimonio. Por esas mismas fechas, la Compañía de las Indias Orientales fundó en Haileybury una nueva institución universitaria destinada a formar a los funcionarios que después servirían a Inglaterra en destinos de ultramar; allí ejerció Malthus como profesor de economía desde 1805 hasta su muerte.

El primer escrito de Malthus está fechado en 1796, cuando tenía treinta años y lleva por título: The Crisis, a view of The recent interesting state of Great Britain by a friend to the Constitution. Es una crítica a la administración de Pitt y no pudo encontrar editor. En este tratado vemos un interés por los problemas sociales de la economía política, y a partir de entonces concentrará todos sus esfuerzos en el estudio de esta ciencia y de los problemas planteados por ella dentro del contexto de la realidad social de su tiempo.

La obra económica de Malthus se puede dividir en dos partes; una dedicada a problemas de población y la otra a problemas relacionados con la demanda agregada o efectiva. Los primeros se encuentran en su obra An Essay on the Principie of Population, publicado en 1798, y los segundos son el tema principal de los Principies of Political Economy, que apareció veinte años más tarde, en 1820.

En 1798, influido por las tesis de Adam Smith y David Hume, publicó de forma anónima su célebre Ensayo sobre el principio de población. Sin embargo, dada la polémica suscitada por la obra, en 1804 aparecería una edición ampliada y corregida, esta vez firmada por el autor. En ella incorporó, como confirmación de sus teorías demográficas, los datos y observaciones obtenidos durante sus viajes por Rusia, los países nórdicos, Francia y Suiza.

La principal contribución de Malthus a la economía fue su teoría de la población, publicada en su libro Ensayo sobre el principio de la población (1798). Según Malthus, la población tiende a crecer más rápidamente que la oferta de alimentos disponible para sus necesidades. Cuando se produce un aumento de la producción de alimentos superior al crecimiento de la población, se estimula la tasa de crecimiento; por otro lado, si la población aumenta demasiado en relación a la producción de alimentos, el crecimiento se frena debido a las hambrunas, las enfermedades y las guerras.

La teoría de Malthus contradecía la creencia optimista, prevaleciente en el siglo XIX, según la cual la fertilidad de una sociedad acarrearía el progreso económico. Logró bastante apoyo y fue muchas veces utilizada como argumento en contra de los esfuerzos que pretendían mejorar las condiciones de los pobres.

La naturaleza al hacer la existencia del hombre dependiente de los alimentos, iguala las dos fuerzas y lo hace impidiendo que la población crezca más allá de la oferta existente de alimentos. Para Malthus ése era el escollo que nunca permitiría llegar o tender hacia el perfeccionamiento de la sociedad, una sociedad en la que los hombres vivirían en la holganza, felices y sin ansiedad para proveerse de los medios de subsistencia.

No existe, no obstante, evidencia empírica sobre el crecimiento máximo de la población si ésta no fuera controlada, pero se puede encontrar una aproximación tomando como ejemplo el caso de los Estados Unidos, donde debido a la existencia de controles en su crecimiento ha doblado en veinticinco años su demografía.

No existe tampoco evidencia del crecimiento aritmético de la producción, pero Malthus supone que si la población aumenta 512 veces en 225 años la producción aumentaría solamente diez veces.

tabla de malthus

Lo que controla el crecimiento de la población es entonces la producción de alimentos. Si la población crece antes de que haya aumentado la producción de alimentos, los precios aumentarán y los salarios reales bajarán, con lo que queda controlado el aumento demográfico. Pero la reducción de los salarios hace que aumente la demanda de mano de obra en el campo, con lo cual aumenta la oferta de productos alimenticios dando otro impulso al crecimiento de la población, y así sucesivamente.

El vicio y la miseria controlan igualmente el crecimiento de la población. Llama control preventivo cuando afecta a la tasa de natalidad y control positivo o represivo cuando afecta a la tasa de mortalidad.

Para Malthus los males de la sociedad se deben a la condición humana y no se pueden remediar. Por ello rechaza como pérdida de tiempo el querer intentar reorganizar la sociedad tal como Godwin y Condorcet pretendían. Gran parte de su Essay va destinado a explicar lo inútiles que son estos intentos.

Pero al decir que el malestar de la humanidad es debido a la condición humana más que a las instituciones sociales, ello parecía un insulto al Creador, y para evitar esta crítica dedica los dos últimos capítulos de su primer Essay a intentar reconciliar su principio de la población con una visión del mundo dentro de un universo providencialmente regulado.

Su primer Essay termina aquí. Tuvo una calurosa acogida del público; primero por tocar todos los temas preferidos por la Ilustración y en segundo lugar porque utilizó los dos grandes profetas del progreso, Godwin y Condorcet, como punto de partida para su crítica.

Los escritos de Malthus animaron a que se produjeran los primeros estudios demográficos sistemáticos. También influyeron sobre los economistas posteriores, particularmente en David Ricardo, cuya “ley de hierro de los salarios” y su teoría de la distribución de la riqueza incluían algunos elementos de los planteamientos de Malthus. Entre los demás trabajos de Malthus se incluyen Investigación sobre la naturaleza y progreso de la renta (1815) y Principios de Economía Política (1820).

Otras obras importantes que publicó:

“Naturaleza y progreso de las rentas” (1815)

“La ley del pobre” (1817)

“Principios de economía política” (1820)

“Definiciones de economía política” (1827)

El corolario político de la teoría aquí sintetizada se encarga de darlo el mismo Malthus en su “Ensayo. . .” cuando afirma que “El excedente de población, con los sufrimientos que ello significa, despierta en la multitud la idea revolucionaria y se convierte por ignorancia en enemiga de la libertad”, agregando que “… la causa principal y permanente de la pobreza poco tiene que ver con la forma de gobierno o con el reparto desigual de la riqueza. No depende de la voluntad de los ricos de dar pan y trabajo a los pobres. Por lo tanto, dada la naturaleza misma de las cosas, los pobres no tienen derecho a pedir pan y trabajo”.

Evidentemente, a Malthus, un pensador de la burguesía, lo que le preocupaba era el crecimiento de! proletariado industrial y la presión que éste podría ejercer para arrebatarle el poder económico y político a las clases que se beneficiaban con su trabajo.

Casi dos siglos después el problema se mantiene en términos similares, pero ya no es el crecimiento de la clase obrera en los países ricos lo que preocupa al malthusianismo, sino el crecimiento de las grandes masas pauperizadas del Tercer Mundo que, no sólo amenazan a los grupos dominantes locales (burguesías industriales, oligarquías terratenientes, ejércitos pretorianos, etc.), sino a los aliados y mandantes de los mismos, los sectores monopólicos imperialistas y la burocracia internacional a su servicio.

Los argumentos que estos sectores utilizan para preconizar el control de la natalidad que, en última instancia, es el del tamaño de la población y de su tasa de crecimiento, varía según el momento y el público al que está dirigido: desde el libre albedrío —o la libre elección individual de cada pareja o cada mujer de tener o no hijos—, hasta argumentos sociales, sanitarios y económicos siendo, justamente, estos últimos los más reiterados.

Para Malthus, diferentes factores podían frenar el rápido crecimiento de la población. Por un lado, estaban aquellos que aumentaban la tasa de mortalidad (como las guerras y las hambrunas). Por otro, se encontraban factores como el vicio y la restricción moral que disminuían la tasa de natalidad. Por lo tanto, Malthus pensaba que se debía desalentar la procreación. Estaba en contra de la beneficencia pública y creía que la ayuda tendía a agravar el problema; pues, según él, la falta de previsión era la causa de la miseria de los pobres, quienes se lanzaban al matrimonio y a la procreación sin tener en cuenta el futuro.

Los modernos malthusianos son, como ya dijimos, más sofisticados en sus proposiciones; utilizan los modernos métodos de análisis científicos y técnicos, pero el pensamiento latente sigue siendo el mismo. Afirman que “… la dificultad no estriba en el tamaño de la población, sino en la tasa de crecimiento de la misma y. en la manera en que este crecimiento obstaculiza el proceso de modernización”. ¿En qué basan su argumentación? Sencillamente en que en los países subdesarrollados, la falta de capital (maquinarias y equipos, recursos humanos, etc.) es el factor restrictivo que impide salir de esa situación.

Fundamentan estas proposiciones explicando que, en estas economías, puede considerarse que la relación del capital, respecto de su producto, es de 3 a 1, lo cual equivale a decir que, en estas economías subdesarrolladas, la inversión de tres unidades de capital, de cualquier género, producirá anualmente una unidad adicional en el producto total:

Si esto es cierto, la inversión de un 9 % del ingreso nacional aumentaría en un 3 % anual dicho ingreso. Puesto que con una tasa de crecimiento del 3 % la población se duplica en 23 años, tendría que hacerse una inversión anual del 9 % de los ingresos nacionales para duplicarlos en 23 años, y tendría que hacerse un ahorro e inversión anual del 12 % para lograr la duplicación del ingreso en menos de 18 años. Un desarrollo de la economía de estas características representaría una verdadera realización; pero el mejoramiento de las condiciones de vida y la mayor capacidad de ahorro e inversión dependería, en último término, de la tasa de crecimiento de la población.

Un hombre nacido en un mundo ya ocupado, si no puede obtener de sus padres los medios de subsistencia que en justicia les puede pedir y si la sociedad no necesita su trabajo para nada, no tiene ni el más mínimo derecho a reclamar sustento y, en realidad, está de más. No hay ningún cubierto disponible para él en el gran banquete de la naturaleza; ésta le manda que se vaya y no tardará en ejecutar dicha orden, si el hombre no puede recurrir a la compasión de alguno de los invitados al banquete. Si éstos se aprietan un poco para dejarle sitio, pronto se presentarán otros intrusos reclamando los mismos favores. La noticia de que hay alimentos para todo el mundo llena la sala de numerosos postulantes. El orden y la armonía del festín se ven perturbados, la abundancia que reinaba anteriormente se convierte en escasez, y la alegría de los comensales se esfuma ante el espectáculo de la miseria y la penuria que se adueñan de todos los rincones de la sala, y ante el clamor inoportuno de aquellos que, con toda la razón, están furiosos de no encontrar los alimentos que se les había anunciado.

MALTHUS, T. R.: Ensayo sobre el principio de población, 1798.

El rol de las clases improductivas
A diferencia de Smith y de otros pensadores clásicos, Malthus defiende la existencia de las “clases improductivas” (los terratenientes, la burocracia, el clero, etc.) que no producen y sólo se dedican a consumir.

Según él, se logra así el equilibrio entre producción y consumo, oferta y demanda, evitando que se generen “crisis de sobreproducción”. Malthus pensaba que, en el caso de los alimentos, no existía la posibilidad de un exceso de producción, pues el aumento en estos bienes genera su propia demanda al hacer crecer la población. En cambio, en el caso de los bienes de lujo, suponía que habría que estimular su consumo por parte de las clases ricas para evitar un desequilibrio en la economía (un mercado colmado de mercaderías que no se compran).

Malthus rompe con una de las posturas centrales de la tradición clásica: la creencia en un permanente equilibrio entre oferta y demanda, gracias a una exacta correspondencia entre las cantidades producidas y las consumidas.
Dadas las condiciones de vida de gran parte de la población europea en los siglos XVIII y principios del XIX, el aumento en la producción de alimentos y su consiguiente abaratamiento, sin duda facilitaba a las familias la adquisición de alimentos, haciéndolas más numerosas. Por lo tanto, es comprensible que los economistas clásicos trataran de explicar la tendencia demográfica que observaban a través de una “ley” que sería aplicable a cualquier época histórica.

HISTORIA DE LA ECONOMÍA
DAVID RICARDO

Nació en Londres en 1772, hijo de un judío holandés que emigró a Inglaterra hacia 1760 y que operaba en la Bolsa de Londres. A los 14 años comenzó a trabajar con su padre. A los 21 se casó con una inglesa de religión cuáquera, lo que se tradujo en una ruptura con su familia y en la necesidad de continuar la profesión bursátil por su cuenta.

A los veinticinco años, gracias a su extraordinaria inteligencia práctica, supo llevar a cabo algunas especulaciones que, habiendo comenzado con nada, lo llevaron a adquirir una fortuna lo suficientemente grande como para poder retirarse y comprar la finca de Gatcome Park. Allí empleó su tiempo ocioso en perfeccionar
su defectuosa instrucción estudiando matemáticas, química, geología y mineralogía. También en escribir artículos y libros.

David Ricardo fue íntimo amigo de Malthus. En 1799 leyó con mucho interés “La riqueza de las naciones”, de Adam Smith. Se interesó por la política, ingresando en el Parlamento, donde tuvo una activa participación en diversos temas, principalmente los relacionados con cuestiones económicas. En 1817 aparece la primera edición de su libro más importante: “Principios de la economía política e impuestos”.

David Ricardo es recordado por ser el precursor de un método de análisis en materia económica diferente del usado por sus predecesores, especialmente por Malthus y Smith. Este último, para llegar a una conclusión, analizaba primero numerosas y variadas observaciones descriptivas de la realidad. En cambio, Ricardo lo hacía desde datos abstractos para sacar de ellos conclusiones que le parecían lógicas. Esto lo llevó a ser el primero en construir modelos teóricos de análisis, sistema que ofrece la ventaja de no exigir la acumulación de demasiados datos, lo que demanda mucho tiempo y trabajo. El inconveniente está en que por este camino es más fácil apartarse de la realidad.

David Ricardo es una de las personalidades más polémicas de la historia de la economía, principalmente debido a que muchos de sus puntos de vista sirvieron de base tanto a sostenedores extremos del capitalismo como a Carlos Marx y los socialistas.

ORIGEN DEL TÉRMINO MALTUSIANISMO:
En 1798 se publicó en Inglaterra un libro titulado Ensayo sobre el principio de la población, cuyo autor quedó en el anonimato. Seis ediciones fueron necesarias para que la obra apareciese con el nombre de Thomas Robert Malthus. Corría el año 1826 y ya se había traducido a casi todas las lenguas europeas. ¿Quién era Malthus? Un pastor protestante de familia rica y cuyo padre, Daniel Malthus, era hombre de excepcional cultura y vasta erudición.

Thomas, después de ordenarse sacerdote, viajó por Holanda, Noruega, Suecia, Finlandia, Rusia, Francia y Suiza. Se instaló definitivamente en el condado de Hertford, donde se casó y fue profesor de historia y economía política. ¿Qué decía el libro? Sentaba el principio de que la población del globo crecía en proporción geométrica, mientras los medios de subsistencia lo hacían en proporción aritmética. Por ello, preconizaba que los individuos no debían formar una familia si no estaban seguros de poder alimentarla. Éste sería un medio preventivo.

Existen, según Malthus, otros medios, los destructivos, cómo son las guerras, las epidemias, etc., que contribuyen a mantener precariamente el equilibrio entre la población y el sustento. Un párrafo de la obra fue subrayado por sus enemigos; «El hombre que nace en un mundo ocupado, si su familia no le puede mantener o si la sociedad no precisa de su trabajo, no tiene ningún derecho a reclamar alimento y está de sobra en la Tierra. En el gran banquete de la naturaleza no hay cubierto para él.»

Este maltusianismo extremo no tiene hoy vigencia más que entre algunos nietzscheanos rezagados, partidarios de un superhombre nazificado. Sí, en cambio, tiene partidarios, y muchos, el malthusianismo consistente en evitar la procreación, sea por medios naturales o artificiales.

El método Ogino, el coitus interruptus, los anovulatorios, los esterilets, etc., son métodos que los malthusianos propagan. De todos modos, la comparación proporción geométrica — proporción aritmética antes citada no ha sido probada hasta el momento.(Fuente Consultada: Historias de la Historia Carlos Fisas)

Fuente Consultada:
Enciclopedia Encarta y Wikipedia
Economía Las Ideas y los Grandes Procesos Económicos Rofman-Aronskind-Kulfas-Wainer
Revista Muy Interesante N°86

Ver:Desequilibrio entre Poblacion y Recursos