Trabajos de Leibniz

Biografia de Liebig Von Justus Vida y Obra Cientifica del Quimico

Biografia de Liebig Von Justus – Obra del Quimico

Químico y pedagogo alemán, conocido por su habilidad en el campo de la experimentación. Nació en Darmstadt, el 12 de mayo de 1803.

Muy pronto adquirió conocimientos prácticos en los procesos químicos, que completó con varias lecturas sobre el aspecto teórico y doctrinal en la materia.

A los quince años entró en una farmacia establecida en Heppenheim, cerca de su ciudad natal; pero se desengaño respecto a la utilizacion en tal empleo de los grandes principios de la química.

Estudió en las Universidades de Bonn y Erlangen, donde se doctoró en 1822. Trabajó en París con Gay-Lussac y fue profesor de la Universidad de Giessen (1824), que convirtió en el principal centro de investigaciones químicas de Europa.

Como profesor de química en la Universidad de Giessen desde 1826 hasta 1852, enseñó a algunos de los químicos más destacados de su tiempo,entre sus alumnos estuvieron von Hofmann y Kekulé

Biografia de Liebig Von Justus Quimico
La Química del siglo XIX cuenta entre sus grandes adeptos a Justo von Liebig, el cual fomentó su desarrollo tanto en el campo de la teoría como en el de las aplicaciones prácticas. Eminente profesor en las universidades de Giessen y Munich, supo dar a la ciencia química el papel que le correspondía en los centros superiores de enseñanza y, al mismo tiempo, orientar ésta hacia la experimentación y la investigación activa. Por esta causa, von Liebig ocupa también un lugar de primer rango en la revalorización del papel de las universidades como centros directores de la cultura europea.

Lueog de doctorarse pasó a París (1822) cuya ciudad, con la ayuda de Thenard, entró a trabajar en el laboratorio privado de Gualtier de Claubry profesor de química en la Escuela de Farmacia.

Mas tarde, Alejandro de Humboldt le recomendó para jet pudiera prestar su colaboración al célebre físico químico francés Gay-Lussac.

Aquí desarrolló sus primeras estudios sobre la composición de los fulminados (1824).

Humboldt le indujo a entregarse a la enseñanza de la Química.

Nombrado catedrático de esta disciplina en 1824 como profesor extraordinario, y en 1826 como numerario, de la universidad de Giessen, obtuvo del gobierno de Darmstadt la subvención necesaria para montar un laboratorio químico, al objeto de que los estudiantes se iniciaran en la práctica y la experimentación.

Liebig hizo de Giessen la escuela de quimica más famosa del mundo entero.

A sus enseñanzas acudieron gente de todos los países; pero, desde luego, su influencia fue mucho más profunda entre la juventud alemana.

En 1832 fundó los Anales de Farmacia (después Anales de Química), una de las revistas más importantes de la época en ese campo. Entre sus obras destaca Die Chemie in ihrer Anwendung auf Agrikultur und Physiologie (La Química en sus aplicaciones a la Agricultura y la Fisiología, 1840).

Veintiocho años profesó en su cátedra de Giessen; en 1852 pasó a la universidad de Munich.

Su carrera docente estuvo acompañada de una actividad científica prodigiosa. Publicó más de 318 memorias, ya solo, ya sea en colaboración con sus alumnos y en particular con F. Wóhler.

Liebig fue uno de los fundadores de la Química orgánica. Entre sus descubrimientos figuran: un método para platear el vidrio, que evitaba el envenenamiento por vapor de mercurio; la transformación instantánea del alcohol en ácido acético, y la preparación artificial del ácido tartárico.

Colaboró en los experimentos de Wóhler con el benzaldehído y juntos propusieron la teoría de los radicales orgánicos, que afirma que ciertos grupos de átomos mantienen su estructura en muchas reacciones químicas.

Sus trabajos en la quimica inorgánica fueron muy notables, pero quedan en segundo término ante su prodigiosa labor en la química orgánica.

En 1873 publicó un estudio sobre el benzoldehido que marca una época en las investigacio nes sobre los compuestos orgánicos.

Poco después, elucidaba el problema de su formación y descubría la primera glucosa, la amigdalina. Publicó varios estudio; completísimos sobre el ácido úrico (1837). Más tarde descubría diversos compuestos orgánicos, como el cloralio, el cloroformo y el aldehido fórmico, y publicaba estudios básicos sobre las series aromáticas y la teoría de los radicales.

A mayor abundamiento, dedicó sus actividades a la aplicación de las teorías químicas a los procesos fisiológicos de las plantas y de los animales.

En el campo de la Química fisiológica, construyó instrumentos para absorber el anhídrido carbónico expulsado en la respiración, que le permitieron confirmar que la energía vital se debe a la combustión de los alimentos en el interior del cuerpo.

También buscó aplicaciones químicas para la Agricultura, demostrando que las plantas absorben sustancias del aire y abogando por el uso de los fertilizantes. Inventó un método para obtener extractos de carne que se ha utilizado durante más de un siglo.

Su obra La química en su aplicación a la agricultura y a la fisiología, aparecida en 1840, constituyó una revelación trascendental y fué el punto de partida de la agricultura moderna, tanto desde el punto de vista científico como práctico.

Liebig fue presidente de la Academia de Ciencias de Berlín y en 1845 recibió el título de barón.

Distinguido por sus conciudadanos y los sabios extranjeros, ennoblecido en 1845, Liebig murió en Munich el 18 de abril de 1873.

fuente

Concepto de Trabajo Resumen Las Clases Hecho Economico e Historia

Resumen Sobre Concepto de Trabajo
Las Clases, Historia y Hecho Económico

Concepto Básico de Trabajo: La actividad que realiza el hombre para procurarse los bienes necesarios para satisfacer sus necesidades, modificando las condiciones que le han sido impuestas por la Naturaleza constituye el trabajo.

https://historiaybiografias.com/linea_divisoria5.jpg

Introducción: El hombre es un ser con necesidades. El concepto de necesidad le es inmediato e impuesto. Tanto para subsistir como para realizarse y perfeccionarse, el hombre necesita continuamente de algo que tiene que encontrar fuera de sí mismo y tiene que encontrarlo con cierta cantidad de esfuerzo propio o trabajo.

Se da una necesidad cuando entre lo que se es o lo que se posee y lo que se quiere ser o se quiere poseer hay un desequilibrio. Y como el hombre es un ser racional, ese desequilibrio adoptará normalmente la forma de desequilibrio que generará un deseo.

La economía admite las necesidades como deseos alcanzables; satisfacer una necesidad supone para ella la desaparición de ese deseo para un restablecimiento del equilibrio.

El origen de las necesidades puede responder a cualquiera de los siguientes factores.

• Una exigencia biológica de reposición de energías que el organismo gasta constantemente para mantener su normal funcionamiento.

• El deseo —muy humano— de buscar la perfección en todos los aspectos posibles de la vida.

• Un factor de tipo social o ambiental, ya que la evolución de la civilización entraña, a la vez, un aumento de los bienes y servicios que el hombre precisa para satisfacer sus necesidades —que incrementan progresivamente—. Por ello se puede afirmar que el número de necesidades es infinito.

Según estas premisas, algunos especialistas dividen las necesidades en necesidades de subsistencia o fisiológicas y necesidades de civilización o sociales (artificialmente creadas). Puede deducirse la relatividad de las necesidades, ya que el ideal al que se aspira, es decir, el concepto de bienestar, no es uniforme para todos los hombres.

https://historiaybiografias.com/linea_divisoria5.jpg

El ingreso desde el punto de vista económico: El hecho económico, que es, sin duda alguna, un hecho humano, está referido a la actividad del hombre que se origina en la existencia de necesidades y de la escasez de recursos o medios para satisfacerlas. (mas abajo seguimos este tema)

La escasez es el elemento básico para que pueda concebirse una actividad económica, dado que si los bienes.no fueran escasos, es decir se encontraran en cantidad suficiente y disponible para la satisfacción de las necesidades del hombre, no sería necesario la realización de ningún esfuerzo o sacrificio y, por lo tanto, no existiría una actividad que tienda a obtenerlos.

Al referimos a la escasez, no hacemos otra cosa que establecer una relación entre la cantidad disponible de bienes y las necesidades que deben ser satisfechas con los mismos. En consecuencia no tenemos en cuenta aquellos bienes que por ser abundantes se encuentran a disposición de todos y no son propiedad de nadie (aire, agua, etc.)

Pero para que un bien no requiera actividad económica alguna para procurárselo no sólo significa su abundante existencia en la Naturaleza sino también, aunque exista en cantidades limitadas, carecer de la aptitud para satisfacer alguna necesidad del hombre.

De lo expresado puede deducirse, entonces, que el hombre desarrolla una actividad en procura de la obtención de bienes o servicios para satisfacer sus necesidades, en tanto esos bienes no sean abundantes y deba realizar un esfuerzo o sacrificio para obtenerlos.

La obtención de dichos bienes es un acto económico que se conoce como ingreso y su aplicación a la satisfacción de sus necesidades, representa el consumo de dichos bienes y servicios.

El esfuerzo tendiente a procurarse dichos ingresos se realiza en el hombre común por medio del trabajo, que es una actividad de carácter personal y, en el caso de determinadas organizaciones sociales como la empresa, merced a la actividad personal del empresario (titular de la empresa), de los trabajadores que emplea bajo su dependencia y del capital o elementos que utiliza para llevar a cabo la actividad propuesta.

La Escasez:

La experiencia demuestra que el hombre no sólo tiene variadas necesidades, sino que además, en muchísimas ocasiones, entre las necesidades que debe satisfacer y los medios precisos con que cuenta para ello hay un desequilibrio. Es decir, que los medios son escasos respecto a los fines que con ellos hay que alcanzar.

Entre los medios precisos para la satisfacción de sus necesidades uno es el tiempo que el hombre ha de dedicar para producirlos, ya sea con su esfuerzo o con su trabajo. Sin duda, tanto el tiempo como el trabajo son escasos. A este último —además de requerir un tiempo— se opone la necesidad del descanso.

Pero no sólo son los medios relativamente escasos, sino que además, en la inmensa mayoría de los casos, son también susceptibles de usos alternativos. Es decir, se trata de unos medios que pueden ser empleados para la satisfacción de varias necesidades.

Por ejemplo, un terreno puede dedicarse a la construcción de viviendas, de una planta industrial o de una vía de comunicación, o bien puede emplearse para el cultivo de trigo o patata, etcétera. Que el trabajo humano, medio básico para la satisfacción de las necesidades, tiene múltiples posibilidades de utilización, es un hecho claro y evidente.

La Elección:

Existe una multiplicidad de fines a alcanzar, es decir, de necesidades a satisfacer, que pueden ser jerarquizadas a partir de su importancia o del deseo que provocan; por otra parte, también existe una limitación de los medios y del tiempo para atender a aquellas necesidades. Esta es precisamente la base del problema económico, la esencia del hecho económico.

El hombre, como ser racional, tiene que utilizar medios disponibles y susceptibles de usos diversos de la manera más acertada posible en la perspectiva de obtener el máximo beneficio de esos medios, que en ocasiones son limitados. El principio racional que debe regir el comportamiento humano es el de ¡a óptima utilización de los recursos —escasos—, una vez realizada una jerarquización de fines.

Afirmar que el objeto de la economía es el estudio de un determinado tipo de actos humanos, es decir, el estudio de las opciones que se pueden tomar cuando los medios son escasos, no es totalmente cierto. Sería más propio decir que el objeto de la economía es un aspecto determinado de los actos humanos.

La expresión actividad económica es un término útil y cómodo y se usará continuamente; pero teniendo en cuenta que, por ser una abstracción, no se da como tal en la realidad. El mismo acto humano desarrolla, además del aspecto económico, otros aspectos; jurídico, social, político, etc.

El problema económico así entendido es anterior e independiente del sistema socioeconómico y político en el que se organiza y estructura la convivencia humana.

https://historiaybiografias.com/linea_divisoria5.jpg

Concepto:EL TRABAJO

Como decíamo al inicio, el TRABAJO es la actividad que realiza el hombre para procurarse los bienes necesarios para satisfacer sus necesidades, modificando las condiciones que le han sido impuestas por la Naturaleza constituye el trabajo.

El trabajo presenta para el hombre dos características fundamentales que suponen:

— La realización de un esfuerzo para vencer las condiciones de la Naturaleza.

— Un sacrificio o privación de su menor esfuerzo a través del ocio o el descanso.

El trabajo se clasifica como económico cuando se efectúa, en todo o en parte, con vistas a algún bien distinto del placer directamente derivado del mismo. Sin embargo hay que destacar que la ociosidad también es penosa a veces.

Muchas personas trabajan más de lo que harían si consideraran sólo el placer resultante del trabajo; pero cuando se goza de buena salud, el placer es mayor que la fatiga, aun cuando el trabajo se realice mediante remuneración.

Naturalmente, la definición es elástica; un agricultor que trabaja en su jardín al anochecer piensa, principalmente, en el fruto que obtendrá de su trabajo; un mecánico que regresa a su hogar después de un día de duro trabajo halla un positivo placer en cultivar su jardín, pero tiene también en cuenta el fruto que obtendrá de su esfuerzo; en cambio un rico que haga lo mismo, aunque se sienta orgulloso de hacerlo bien, se preocupará probablemente muy poco del ahorro pecuniario que el cultivo personal de su jardín pueda reportarle. (Jevons)

Muchas veces nos preguntamos si no existen en la Naturaleza bienes que el hombre pueda proporcionárselos sin trabajo alguno; sin embargo, no existen riquezas naturales que en alguna medida no requieran la intervención del trabajo del hombre.

Gide indica con claridad que esto resulta de la etimología misma de la palabra producto: productum = sacado de algún sitio.

Y, ¿quién, sino la mano del hombre, había de haberlo retirado? Para que los frutos puedan servir a la satisfacción de nuestras necesidades, aun los que por sí misma nos da la Naturaleza: piñones, bananas, dátiles, o todos los crustáceos y mariscos que en Italia son llamados frutti di mare, preciso es aún que el hombre se tome la molestia de recogerlos.

Breve Historia de los Regímenes del Trabajo

El origen del trabajo se remonta a la industria de familia o doméstica, que tuvo su desarrollo en las sociedades primitivas y se prolongó hasta comienzos de la Edad Media.

Los hombres se encontraban divididos en pequeños grupos autónomos que no producían más allá de lo que reclamaban sus propias necesidades; tales grupos se constituían por miembros de una sola familia, entendiéndose como tal a la familia patriarcal que iba aumentando con elementos extraños a ella, como los esclavos convertidos posteriormente en siervos.

Dicho tipo de organización social se desarrolló también en Roma, donde los esclavos ejercían toda clase de oficios para los opulentos señores de la época; posteriormente los señores feudales tenían para el mismo fin a los siervos que constituían la verdadera fuerza del trabajo en la Edad Media.

A esta primera gran manifestación del trabajo organizado le sigue el éxodo constante de cierto número de individuos que se van aparando de esos grupos comunes y se convierten en trabajadores especializados, o sea, artesanos, y dado que no poseen medio alguno, salvo sus rudimentarios instrumentos de trabajo, ofrecen sus servicios de puerta en puerta constituyendo el grupo de trabajadores ambulantes.

Estos trabajadores ambulantes no son asalariados en el concepto actual de la palabra, pues no se encuentran subordinados a patrón alguno, sino que prestan sus servicios al público en general; manifestaciones de este tipo pueden ser equiparadas en la actualidad al caso del afilador, deshollinador, sillero, etc.

A medida que va avanzando la civilización, el trabajador ambulante se convierte en artesano sedentario, establecido con negoció propio, y el régimen corporativo lo llama maestro; requiere para su ayuda el concurso de miembros de su familia o aprendices.

Esta artesanía es una de las características del trabajo durante la Edad Media; en esta etapa el artesano no trabaja más que por encargo y produce con sus ayudantes para un mercado sumamente reducido.

La expansión del mercado local, como consecuencia del mayor contacto entre los pueblos, provoca la necesidad de incrementar la producción e independizar dicho proceso de comercialización o contacto con los consumidores.

Nace entonces el intermediario para la colocación de los productos, interviniendo éste también en el suministro de materia prima a los artesanos, llegando en muchos casos al arriendo de las herramientas de trabajo.

Poco a poco el artesano se convierte en un asalariado y el intermediario o contratista en patrono, situación que se consolida cuando este último reúne a los artesanos en un mismo local de su propiedad.

No puede decirse que el régimen del artesanado haya desaparecido totalmente dentro de las actuales manifestaciones laborales, si bien sólo es posible encontrarlo en pequeños comerciantes que generalmente se dedican más a realizar reparaciones que a fabricar elementos o cosas. Tal el caso de los cerrajeros, pintores, relojeros, electricistas, etc.

Con la aparición del patrono por un lado y el nacimiento de los asalariados por otro surge el régimen corporativo, que comienza a sentar las bases de las primeras asociaciones obreras para la defensa de salarios y el acercamiento de las relaciones entre los trabajadores.

Lógicamente que el régimen corporativo imponía a los obreros una serie de restricciones a su libertad individual al par que los protegía, y es necesario avanzar bastante tiempo en la historia para en-contrarríos con el asalariado tal como hoy lo conocemos.

Sin duda alguna que ha sido el extraordinario progreso industrial el que ha modificado profundamente las condiciones de trabajo, la forma de prestación de la mano de obra y las garantías de contratación.

Cierto es que cada vez se ha limitado la autonomía del trabajador para la prestación de sus servicios a los patronos, pero no es menos cierto que tanto las asociaciones de trabajadores como el Estado han sido los más fervientes defensores del hombre desamparado que por su debilidad económica se entregaba al primer postor.

Clases de Trabajo

El trabajo puede ser clasificado desde distintos puntos de vista de acuerdo a las características bajo las cuales se realiza; sin embargo nosotros nos hemos de referir a sus aspectos fundamentales dividiéndolo:

1º) Según quien lo realiza, en cuyo caso puede ser:

INDIVIDUAL o sea el efectuado por una sola persona.

COLECTIVO o sea el que se realiza por dos o más personas, abarcando esta clasificación desde el simple trabajo de un taller hasta el que se efectúa en las grandes empresas.

2º) Según la tarea que se efectúa, o sea:

INTELECTUAL cuando el hombre pone en juego los recursos de su propia inteligencia.

MATERIAL cuando el trabajo se realiza en razón de la fuerza o habilidad puesta por el hombre.

Sin embargo esta clasificación no es absoluta pues en ambos casos se complementan; solamente son definibles en forma independiente por la mayor aplicación de uno de tales aspectos.

3º) Según la actividad desarrollada, dando lugar a su clasificación en múltiples ramas, oficios o habilidades.

Muchos adoptan también las siguientes clasificaciones aun cuando con ciertas limitaciones puedan ser equiparadas a ésta:

— Trabajo de dirección y trabajo de ejecución

— Trabajo calificado y no calificado

4º) Según la relación existente hacia quien se realiza, puede ser:

INDEPENDIENTE o por cuenta propia como el caso del empresario o profesional.

EN RELACIÓN DE DEPENDENCIA cuando el trabajo se efectúa por cuenta ajena bajo las órdenes de otra persona o empresa.

Respecto de esta última característica del trabajo las distintas legislaciones han establecido normas protectoras a quien lo realiza, denominándolo con el nombre genérico de trabajador.

https://historiaybiografias.com/linea_divisoria5.jpg

EL HECHO ECONÓMICO: Centrado el problema económico en la escasez y la elección con criterio de racionalidad, las cuestiones básicas a analizar se reducen a tres: qué, cómo y para quién producir.

QUÉ PRODUCIR: Como consecuencia de la» escasez, y al no poder atenderse a todas las necesidades en toda su intensidad y amplitud, surge la obligación de seleccionar los fines o bien las necesidades, o al menos señalar el nivel al que van a ser atendidos cada uno de los fines.

Esto supone, naturalmente, una jerarquización de los mismos según la importancia atribuida a cada necesidad. Es lo mismo decir qué necesidad se va a satisfacer, que precisar el qué se va a producir, ya que lo uno comporta lo otro.

CÓMO PRODUCIR: Si ia actividad económica ha de ser racional, lo que se quiere producir (las necesidades que se quieren satisfacer) hay que producirlo con un gasto mínimo de recursos, lo cual es lo mismo que afirmar que habrá que utilizar los recursos de la mejor manera posible para que el rendimiento sea máximo, es decir para que se satisfagan el mayor número de necesidades. Este «cómo hay que producir» tiene tres aspectos diferentes:

Seleccionar la técnica: Hay que seleccionar la técnica económica más apta, entendiendo por técnica, en un sentido amplio, la combinación de factores productivos.

Elegir el lugar: Hay que elegir el lugar más apto para la producción; no es lo mismo, por ejemplo, ubicar una planta siderúrgica junto a los yacimientos de carbón, que junto a los de mineral de hierro, o junto a ¡os centros consumidores. La localización crea problemas de transporte (que también es una actividad económica), que pueden encarecer indebidamente el producto, lo que equivale a provocar un despilfarrp de recursos.

Fijar el tiempo: Hay que fijar también cuál es el tiempo más óptimo para la producción de cada bien. El tiempo es una variable importante en economía. Recuérdese, por ejemplo, que el interés que se paga al capital (un elemento del costo de producción) depende del tiempo.

PARA QUÉ PRODUCIR: En el estadio actual del desarrollo económico, la actividad económica es también una actividad social. Los procesos productivos requieren la colaboración de distintos elementos o de diversos grupos sociales; es preciso, entonces, una distribución de lo producido colectivamente entre los productores, directos o indirectos. El problema de la distribución se considera una parte muy importante del problema económico general.

Fuente Consultada:
Economía y Contabilidad Para 3º Año del Ciclo Básico Unificado de Apolinar E. García Editorial Sainte Claire
Enciclopedia Universal de Ciencias Sociales – La Economía – Editorial Océano

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas.

La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios.

Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él.

Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte.

Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno.

En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10.

Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía.

Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides.

Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo.

La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

Electrólisis:Descomposición Del Agua en Oxígeno e Hidrógeno

LA  ELECTRÓLISIS  DEL AGUA: El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno.

Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos.

No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene.

Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—).

Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino.

Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad.

Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno.

En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la «Schmidt-Oerlikon» que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

Conceptos Básicos de Lubricantes
Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES: Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que» tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

El Pararrayos de Benjamin Franklin Experiencia Barrilete Invento de

El Pararrayos de Benjamín Franklin
Historia de la Experiencia del Barrilete

Benjamín Franklin, científico: (Boston, 17 de enero de 1706 – Filadelfia, 17 de abril de 1790) Filósofo, político, físico, economista, escritor y educador, figura clave en la Independencia de los Estados Unidos de Norteamérica, creó las bases de lo que hoy se entiende como «el ciudadano americano ejemplar».Era el decimoquinto de los hijos y comenzó a aprender el oficio de su padre, que era un pequeño fabricante de velas y jabón.

Cansado de este trabajo, se colocó a los 12 años en la imprenta de un familiar, desarrollándose así su amor a la cultura. El escaso tiempo libre lo empleaba en devorar todo tipo de libros que caían en sus manos.

Sus primeros versos y artículos los publicó en un periódico que su cuñado había fundado. A los 17 años, debido a discusiones con él, se traslada a Nueva York para hacer fortuna. Respaldado por el gobernador de Filadelfia, instala una imprenta y decide ir a Londres a comprar el material. Allí, olvidándose un poco de sus propósitos principales, trabaja en la imprenta Pelmer, conociendo a distinguidas personalidades.

PARARRAYOSEn cambio, el exceso atraía a la deficiencia, y el fluído eléctrico se vertía del exceso a la deficiencia, neutralizándose ambos y quedando descargados.

Franklin propuso que el exceso se llamara electricidad positiva, y la deficiencia, electricidad negativa. No se especificaba qué variedad de electricidad, la vítrea o la resinosa, era positiva y cuál negativa.

Franklin conjeturó arbitrariamente y se equivocó, pero eso es irrelevante. Pueden utilizarse los nombres y olvidarse los significados literales.

Franklin observó cómo se descargaba la botella de Leyden. Cuando la carga eléctrica se agotaba, emitía una chispa (luz) y un chasquido (sonido).

A Franklin le sorprendió la semejanza entre la chispa —un rayo en pequeño— y el chasquido —un pequeño trueno—. Entonces invirtió el razonamiento: durante una tormenta, ¿acaso tierra y cielo formaban una gigantesca botella de Leyden, y el rayo y el trueno significaban una descarga igualmente gigantesca?

Decidió experimentar. En 1751, hizo volar una cometa durante una tormenta. La cometa iba provista de una punta metálica a la que estaba unido un largo hilo de seda. Al final del hilo, cerca de donde se encontraba Franklin (que sujetaba el hilo de seda con un segundo hilo que permanecía seco), había una llave de metal.

Cuando se concentraron las nubes de tormenta y el hilo empezó a dar muestras de carga eléctrica (las fibras separadas se repelían unas a otras), Franklin puso el nudillo cerca de la llave, y ésta chisporroteó y crujió igual que una botella de Leyden. Además, Franklin cargó una de esas botellas sirviéndose de la llave, con la misma facilidad que si fuera una máquina de fricción.

La botella de Leyden cargada con electricidad del cielo se comportaba exactamente igual que si se hubiera empleado electricidad terrestre. O sea que ambas eran idénticas.

Franklin fue capaz de dar una inmediata aplicación práctica a su descubrimiento. Decidió que el rayo se abatía sobre un determinado edificio cuando éste almacenaba una carga durante una tormenta. Su experiencia con la botellas de Leyden le demostraba que éstas se descargaban con mucha mayor facilidad si se las proveía de una aguja.

Es decir, que la carga se disipaba con tanta rapidez a través de la aguja, que las botellas no podían ser cargadas a la primera. ¿Por qué no, entonces, fijar una varilla metálica puntiaguda en lo alto de un edificio y conectarla adecuadamente con el suelo, a fin de que cualquier carga que almacenara pudiera descargarse rápida y silenciosamente, y que ninguna carga se acumulara hasta el punto de desencadenar una descarga de consecuencias desastrosas?

Franklin publicó sus ideas sobre la materia en 1752 en Poor Richard’s Almanac, y en seguida empezaron a instalarse los pararrayos (líghtning rods, «varillas para el rayo»), primero en América y luego en Europa. Demostraron su eficacia, y por vez primera en la historia una catástrofe natural no se prevenía mediante la plegaria o los encantamientos mágicos de una u otra clase, que realmente nunca daban resultado, sino por la confianza en la comprensión de las leyes naturales, que sí era eficaz.

En cuanto los pararrayos aparecieron en los campanarios de las iglesias (que al ser el punto más elevado de la ciudad eran particularmente vulnerables), la cuestión quedó clara para todos.

PARA SABER MAS…

Aunque se lo recuerda sobre todo como hombre de estado, Benjamín Franklin realizó también valiosas contribuciones al conocimiento científico. Nació en 1706 y era el número quince de los hijos de una modesta familia de Boston. Fue, principalmente, autodidacto, pero asistió durante algún tiempo a la escuela local.

A la edad de 12 años era aprendiz de impresor. Cinco después dejó su ciudad natal para dirigirse a Filadelfia, donde continuó dedicado a ese trabajo.

En 1729 se estableció y abrió con buen éxito su propia impresora, y compró la Pennsylvania Gazette. Poco después, inició su carrera política como secretario de la asamblea general de Pensilvania. En 1751 fue elegido miembro de ésta Corporación y de 1753 a 1774 lo nombraron administrador general de correos de las  colonias norteamericanas.

Visitó Inglaterra en diversas ocasiones, a fin de negociar con el gobierno británico asuntos de interés para los colonos. Fue durante estos viajes cuando realizó una serie de experiencias que demostraron las características y el curso de la corriente del golfo de México, una corriente de agua templada que se dirige desde el golfo, por la costa este de Norteamérica, hacia el Norte, y en las costas de Newfoundland cambia de rumbo, hacia el Este y atraviesa el Atlántico.

Para levantar la carta de esta corriente, determinó la temperatura del agua del océano a diversas profundidades. Las naturalezas del trueno y del rayo habían interesado durante siglos a los científicos y a los filósofos, pero a Franklin lo llevó este interés a investigarlas experimentalmente.

Para ello, preparó un barrilete, que fijó con un clavo al extremo de un cordel. Cerca del otro extremo lo prendió con una llave. Lanzó el barrilete cuando pasó sobre su cabeza un nubarrón-tormentoso y, en seguida, saltó de la llave una gran chispa eléctrica. Pudo ser algo muy peligroso, puesto que no había preparado ningún aislador en esta parte del cordel del barrilete.

Como la lluvia empapaba el cordel, ello incrementaba su conductividad eléctrica; la electricidad fluía libremente por dicha cuerda y pudo comprobar que poseía las mismas propiedades que la electricidad generada por fricción. El feliz resultado de esta experiencia condujo a la utilización de los pararrayos para proteger los edificios, especialmente los de más altura.

Realizó, además, otra contribución al estudio de la electricidad: demostró la existencia de cargas positivas y negativas. Aunque no está claro quién fue el inventor de las lentes bifocales, fue él ciertamente el primero que las describió. Antes, si una persona necesitaba dos clases de lentes para leer y para ver objetos lejanos, era forzoso que dispusiese de dos anteojos distintos. Sin embargo, esta dificultad fue superada al unir en un mismo cristal dos medias lentes diferentes.

La inferior proporcionaba los aumentos adecuados para la lectura y la superior, de menor aumento, se podía utilizar para enfocar objetos distantes. Franklin estaba demasiado entregado a las actividades políticas para poder prestar a las científicas las atenciones deseables. Ayudó a redactar la Declaración de la Independencia de los Estados Unidos y, poco después, en 1790, murió cuando abogaba por la abolición de la esclavitud de los negros.

Los Gases Nobles Propiedades y Aplicaciones Concepto de Gas

CONCEPTO DE GAS – APLICACIONES DE LOS GASES NOBLES

CONCEPTO: El gas es un estado de la materia en el que ésta llena por completo el recinto que la contiene, sea grande o pequeño, pues los cuerpos en este estado carecen de forma y volumen propios.

Esta definición, puramente fenomenológica, era la corriente hasta el establecimiento definitivo de la teoría cinética de la materia, que explica el estado gaseoso por liberación de la acción atractiva que ejercen entre sí las masas de las moléculas y por la energía cinética comunicada a éstas por el calor. En el estado gaseoso, las moléculas se mueven libremente en el recinto que las contiene, rebotando contra sus paredes o chocando entre sí continuamente.

concepto de gas

Los gases son fácilmente solubles en algunos líquidos, y la cantidad disuelta es proporcional a la presión; actúan como malos conductores del calor y la electricidad, y generalmente son transparentes y de color débil.

El que un cuerpo se encuentre o no en estado gaseoso depende de la temperatura y la presión a que está sometido, pues todos los gases, al aumentar la presión o disminuir la temperatura, se pueden licuar.

Los gases perfectos se dilatan, a presión constante, y aumentan su volumen 1/273 veces por cada grado centígrado que asciende la temperatura. Los dos gases más comunes en la naturaleza son el oxígeno y el nitrógeno, principales componentes del aire.

Por definición: GASES NOBLES Conjunto de los elementos gaseosos que constituyen el grupo VIII A u O de la tabla periódica de los elementos (helio, argón, neón, criptón, xenón y radón). No presentan tendencia a combinarse con otros elementos.

LOS GASES NOBLES: Existe una familia de elementos inertes, indiferentes a los reactivos y hasta incapaces de formar moléculas que aglomeran sus propios átomos: son el argón, el criptón, el helio, el neón, el radón y el xenón.

El motivo de su inactividad o indolencia química reside en que el cortejo de electrones de su capa periférica está completo (2, 8 ó 18 según el caso). En otras palabras, no existe razón alguna para que tiendan a capturar electrones ajenos o a ceder los suyos propios.

 LAS CAUSAS DE LA REACTIVIDAD

Los seis elementos que acabamos de ver son gases, a pesar de que el peso atómico de algunos es extremadamente elevado, porque casi ninguna fuerza vincula sus moléculas.

En cambio, los demás elementos son más o menos activos porque la estructura de su átomo carece de una distribución ideal de los electrones periféricos; éstos pueden hallarse en exceso —como en el flúor y en el cloro—, o ser insuficientes con respecto al número-tipo capaz de asegurar su equilibrio.

De aquí su tendencia a unirse entre sí, o con otros elementos complementarios, para compensar su inestabilidad. Con reactivos sumamente ávidos y enérgicos se logra, venciendo grandes dificultades, sintetizar algunos compuestos de xenón «y otros gases nobles. Pero la inercia química sigue siendo la característica distintiva de estos elementos.

Recordemos que los átomos de todos los elementos sin excepción, son eléctricamente neutros, porque el número de protones del núcleo iguala al de electrones que giran en sus distintas órbitas. La reactividad química se debe exclusivamente a la necesidad de completar el número ideal de electrones de la capa periférica, por razones de equilibrio atómico, no de carga eléctrica.

ARGÓN

Peso atómico 39,944; 18 electrones en órbita. Única fuente comercial: la atmósfera; vestigios en minerales y meteoritos. Su utilización principal son las lamparillas eléctricas: no reacciona con el tungsteno incandescente, y sus moléculas detienen las partículas que éste proyecta, evitando que ennegrezcan el vidrio. En la actualidad, la soldadura con arco eléctrico y las operaciones metalúrgicas con titanio y otros metales ávidos de oxígeno, consumen más argón que la industria de fabricación de lámparas.

También se lo emplea en las válvulas electrónicas de gas (tiratrones), en los contadores Geiger, en las cámaras que miden rayos cósmicos, y como sustituto del helio en ciertos espectrógrafos de masa.

En el laboratorio se emplea en la cromatografía, cuando se trabaja con productos muy reactivos, porque es inerte. Se deduce fácilmente que la soldadura de arco de metales que arden en el aire requiere una atmósfera neutra. De ahí el éxito del argón envíos trabajos con aluminio, magnesio, titanio, aleaciones de cobre o níquel, y acero inoxidable.

También se lo emplea indistintamente con el helio, en la preparación de cristales de silicio y germanio para transistores, y se lo prefiere por su mayor abundancia. El argón constituye el 0,9 % del volumen de la atmósfera; su isótopo de peso atómico 40, que probablemente proviene de la desintegración radiactiva del potasio, forma su mayor parte. Se lo obtiene por medio de la licuefacción del aire.

CRIPTÓN

Peso atómico 83,80; 36 electrones en órbita. Única fuente comercial: la atmósfera; vestigios en minerales y meteoritos. Su uso principal son las lámparas flash para fotografía (ya en deshuso) y otros dispositivos electrónicos. Se lo mezcla con argón para llenar los tubos fluorescentes. Debido a su mayor peso molecular es superior al argón para impedir la evaporación del tunsgteno en las lamparillas eléctricas; pero es escaso y se lo reserva para los proyectores de gran brillo y eficiencia.

Existe un criptón radiactivo de peso 85 que se emplea para la medición del espesor de las láminas de metales y plásticos, y en lámparas que dan luz durante varios años, sin otra fuente de energía que su radiactividad, que excita una capa fosforescente.

En medicina sirve para revelar defectos cardíacos, porque permanece en el cuerpo solamente durante el escaso tiempo necesario para observar la anomalía. El criptón constituye sólo 1,14 partes por millón del volumen de la atmósfera. El criptón radiactivo se forma en las explosiones atómicas.

HELIO

Peso atómico 4,003; 2 electrones en su única órbita. Su mayor fuente comercial son las reservas de gas natural de los Estados Unidos, que contienen 5 % de helio. Antiguamente se empleaba en globos y dirigibles, porque no es explosivo como el hidrógeno, y su poder ascensional es el 92 % con relación a éste.

Se lo utiliza todavía en los pequeños globos meteorológicos y en los gigantescos aeróstatos que exploran los rayos cósmicos en la atmósfera superior. Como él argón, el helio se emplea mucho en la soldadura de metales reactivos.

Es además esencial para obtener fríos extremos, para reemplazar el nitrógeno en la atmósfera que respiran los buzos a grandes profundidades (véase tomo I, pdg. 79), en la terapéutica del asma, porque es mucho más fluido que el nitrógeno que habitualmente acompaña el oxígeno, y, a veces, como diluyeme inerte en la anestesia.

El helio es un refrigerante de los reactores nucleares, porque no se vuelve radiactivo; en los túneles de viento permite obtener datos sobre velocidades extremas; en las cámaras de burbujas revela partículas de elevada energía, y en los cojinetes lubricados a gas se aprovecha su viscosidad minúscula. El helio constituye 5,24 partes por millón del volumen de la atmósfera. Como la demanda excede enormemente a la producción se lo sustituye por argón, cuando es posible.

NEÓN

Peso atómico 20,183; 10 electrones en órbita. Única fuente comercial: la atmósfera; existen también algunos vestigios en minerales y meteoritos.

Cuando se produce una descarga eléctrica en el neón rarefacto, emite una brillante luz rojo-anaranjada. De ahí su uso en los llamados tubos de neón. Para obtener otros colores se añaden vapor de mercurio y alguno de los demás gases nobles.

El neón es a la vez un conductor para los altos voltajes y un interruptor cuando la tensión es baja; esto explica el uso de válvulas de neón como salvaguardia de ciertos motores eléctricos contra súbitas elevaciones de voltaje.

Se necesita muy poca potencia (vatios) para producir luz en las lámparas de neón; de aquí su uso en la iluminación nocturna contra accidentes. El neón constituye 18,18 partes por millón del volumen de la atmósfera. No se le conocen isótopos radiactivos.

RADÓN

Peso atómico 222; 86 electrones en órbita. Es un gas sumamente pesado emitido por el radio, y que, en menos de cuatro días, se reduce a la mitad por desintegración, cuyo producto último es el plomo.

Se lo utiliza en los hospitales para el tratamiento de ciertos tumores. Como el gel de sílice y otros adsorbentes lo retienen fácilmente, es cómodo purificarlo.

XENÓN

Peso atómico 131,30; 54 electrones en órbita. Única fuente comercial: la licuefacción del aire, del que sólo constituye 0,086 partes por millón. Se lo emplea en las lámparas flash de alta velocidad, porque produce un color bien equilibrado y puede usarse más de diez mil veces.

En el arco eléctrico (proyectores de cinematógrafo) la intensidad de la luz producida por el xenón es la misma que la del carbono de arco.

Absorbe fácilmente las radiaciones, y después de ello se lo mezcla con el acetileno, al que polimeriza y convierte en otras sustancias.

Es un buen anestésico de efecto fugaz: el paciente sé recupera en menos de dos minutos cuando deja de respirarlo; además puede asociarse sin peligro a otros hipnóticos explosivos como el éter, porque es inerte. Se lo emplea mucho en física nuclear pues absorbe fácilmente los neutrones; pero aún no se han resuelto sus graves inconvenientes, como el envenenamiento del combustible nuclear, cuyo ritmo de fisión disminuye gradualmente.

ESTABILIDAD IDEAL DE LAS CAPAS DE ELECTRONES EXTERIORES

Primera órbita (helio), 2 electrones. Segunda órbita (neón), 8 electrones. Tercera órbita (argón), 8 electrones. Cuarta órbita (criptón), 18 electrones. Quinta órbita (xenón), 18 electrones. Sexta órbita (radón), 32 electrones.

 Fuente Consultada:

Revista TECNIRAMA N°17

CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico.

Leyes de los Gases Ideales Ley de Boyle, Lussac y Ecuacion General

Leyes de los Gases Ideales Ley de Boyle, Lussac

1-LOS GASES: DEFINICIÓN, CONCEPTO BÁSICOS Y SUS LEYES QUE EXPLICAN SUS PROPIEDADES

2-LOS GASES Y EL PRINCIPIO DE PASCAL

3-LEY DE BOYLE Y MARIOTTE:

4-LEY DE CHARLES GAY – LUSSAC A PRESIÓN CONSTANTE

5-LEY DE CHARLES GAY – LUSSAC A VOLUMEN CONSTANTE

6-ECUACIÓN GENERAL DE LOS GASES IDEALES

EXPLICACIÓN FÍSICA: Se denomina fluidos a aquellos cuerpos que pueden fluir y adoptan la forma del recipiente que los contiene. Los fluidos se dividen en líquidos y gases, dependiendo de sus fuerzas de cohesión interna. La hidrostática es la parte de la Física que estudia el comportamiento y propiedades de los fluidos en equilibrio mientras que la hidrodinámica estudia los fluidos en movimiento.

Mientras que los líquidos fluyen manteniendo constante su volumen, los gases tienen tendencia a ocupar todo el volumen disponible. Este distinto comportamiento es debido a que en el estado líquido las fuerzas de cohesión intermoleculares son mayores que en los sólidos y, por tanto, las partículas componentes abandonan las posiciones fijas que ocupaban en estado sólido aunque mantienen una cierta cohesión que les hace mantener un volumen constante.

En el caso de los gases, las fuerzas de cohesión intermoleculares son mucho menores y las partículas pueden moverse libremente en todo el volumen del recipiente que las contiene.

En los líquidos se producen fuerzas que interfieren el movimiento molecular a causa del rozamiento que se produce al deslizar las moléculas. Estas fuerzas originan la viscosidad y existen en todos los líquidos reales en mayor o menor medida. Los líquidos en que no existe viscosidad se denominan líquidos ideales o perfectos. En el caso de los gases, la viscosidad es muchísimo menor.

Ahora bien, el choque de las moléculas gaseosas contra las paredes del recipiente que las contiene o contra otras moléculas gaseosas también origina fricciones. Los gases en que se suponen despreciables dichas fricciones reciben el nombre de gases ideales o perfectos.

Si a las moléculas de un sólido o de un líquido se les entrega suficiente energía en forma de calor, éstas también adquirirán la suficiente energía como para romper las fuerzas que las mantienen unidas y pasar al estado de vapor, produciéndose, entonces, el cambio de estado. Pocas son las sustancias que están en estado gaseoso a temperatura ambiente, entre ellas el nitrógeno (N ), el oxígeno (O2 ), el hidrógeno (H2) el dióxido de carbono (CO2 ), el flúor (F2) el cloro (Cl2 ) y el helio (He).

Si bien comúnmente las palabras gas y vapor se utilizan como sinónimos, hay que diferenciarlas, porque aluden a conceptos distintos: el gas es una sustancia que, a presión normal y a temperatura ambiente, se encuentra en estado gaseoso; el vapor, por parte, es la forma gaseosa de una sustancia, que a temperatura ambiente es un ido o un líquido.

En general, el vapor está en contacto con uno de sus estados condensados (líquido o sólido).

Un gas ideal es un gas teórico compuesto de un conjunto de partículas puntuales con desplazamiento aleatorio que no interactúan entre sí. El concepto de gas ideal es útil porque el mismo se comporta según la ley de los gases ideales, una ecuación de estado simplificada, y que puede ser analizada mediante la mecánica estadística. Un gas real, en oposición a un gas ideal o perfecto, es un gas que exhibe propiedades que no pueden ser explicadas enteramente utilizando la ley de los gases ideales, y hay que recurrir a otros parámetros o propiedades para poder estudiarlos.

Un gas no tiene volumen propio y tiende siempre a ocupar el mayor volumen posible, tomando la forma del envase que lo contiene. En caso de tener encerrado un gas con aroma adentro de una botella, ocurrirá, como ya se sabe, que al destaparla llenará el ambiente de ese aroma y también llegará a los ambientes contiguos. Una aplicación triste de este efecto es el uso de gases tóxicos en los conflictos bélicos, que tantas muerte y efectos nocivos ha causado.

Lo mismo cuando dejamos abierta la llave del gas de una cocina, enseguida nos damos cuenta de ese error, que en realidad ese aroma está agregado al gas a los efectos de la seguridad.

Llamamos expansión de un gas, a la tendencia a ocupar el mayor volumen posible, y cuando está contenido dentro de un recipiente esta expansión creará una presión interior debido al empuje que hace contra las paredes del envase.

A ese empuje por unidad de superficie de lo llama: presión gaseosa. Para medir la presión se utilizan equipos especiales , llamados manómetros y los hay de distintos tipos de funcionamiento.

Al peso del aire de la atmósfera que rodea nuestra planeta, y presiona sobre la Tierra y sobre toda la materia que hay sobre ella, se la denomina presión atmosférica, y se define como 1 atmósfera (1 atm.) a la presión por unidad de superficie. Puede ampliar este concepto desde aquí:

LOS GASES Y EL PRINCIPIO DE PASCAL

Si sobre una masa de gas se aplica una fuerza, ¿transmite el gas la fuerza o la presión? ¿O tiene una manera propia de comportarse?

Si se infla un globo de goma, su volumen aumenta en todas direcciones, de modo que el gas, sea lo que fuere lo que transmite, lo hace en todas las direcciones.

El aparato de la figura nos da la respuesta.

Cuando se aplica una fuerza en el émbolo, el agua sube en todos los tubitos, y en todos sube lo mismo. Como el desnivel mide la presión, y en todos es el mismo, los gases transmiten la presión. Si se mide la ejercida con el émbolo, se comprueba, además, que es igual al aumento de presión señalado por cada tubito.

En consecuencia: los gases obedecen al principio de Pascal.
Esta es una de las razones de que a los líquidos y a los gases se los considera miembros de una misma familia: la de los fluidos. Podemos, pues, enunciar el principio de Pascal en forma más general:
Toda presión ejercida sobre un fluido se transmite íntegramente y en todas las direcciones.

imagen-gases

Si medimos con un manómetro la presión interior del recipiente, observaremos que
es la misma en cualquier punto en que se haga la medición.

Aunque parezca mentira, ya que la mayoría de los gases no son percibidos por nuestros sentidos, el estado gaseoso ha sido, históricamente, el estado de la materia de más fácil de estudio. Gran parte de lo que sabemos hoy acerca del comportamiento de los gases proviene de las investigaciones realizadas durante los siglos XVII, XVIII y XIX. La principal dificultad era el manejo y la medición del volumen de un gas.

En el siglo XVIII, Joseph Priestley inventó una artesa neumática, un dispositivo capaz de recolectar los gases bajo agua o mercurio, y que aún se utiliza en los laboratorios. Los estudios con gases permitieron formular el modelo de partículas que se emplea la actualidad para explicar la naturaleza de la materia, y fueron formalizados mediante las llamadas leyes de los gases.

imagen-gases

Esquemáticamente es:

imagen-gases

Los vapores formados, como resultado de la reacción química que ocurre en el balón, son conducidos, a través de un tubo, al interior de una probeta llena de agua colocada boca abajo en un recipiente con agua. El gas burbujea dentro de la probeta, desplaza el agua que sale por el fondo abierto y llena la probeta.

LEY DE BOYLE Y MARIOTTE:

Ahora veremos como se relaciona la presión de un gas, en función de su volumen. Un ejemplo sencillo que puede ayudarte es cuando tienes un globo inflado a temperatura ambiente y le hace fuerza con nuestra mano desde el exterior. Notaremos que la deformación del globo hace que el volumen se achique y que a su vez se observe cierta tensión sobre la pared interior del mismo. Ese cambio es consecuencia de un aumento de presión interna, lo que nos permite inferir que en un recipiente cuando disminuimos su volumen la presión aumenta. Hablando con mas propiedad, definiremos que a temperatura constante, la presión que ejerce de un gas ideal es directamente proporcional al volumen que ocupa.

imagen-gases

La expresión de este comportamiento de los gases en Física se conoce con el nombre de ley de Boyle-Mariotte y matemáticamente se expresa por esta fórmula: donde los subíndices i y f indican, respectivamente, las condiciones iniciales y finales del proceso.

Ejemplo: En el recipiente de abajo, el volumen es de 45 litros y la presión inicial es la atmosférica, ósea, 1 atm. ¿Que presión experimentará si bajamos el émbolo de tal modo que el volumen ahora es de 3 litros?

imagen-gases

Volumen Inicial: Vi=45
Volumen Final: Vf=3

Presión Inicial: Pi=1
Presión Final: ? (incógnita)

Aplicando la formula de la Ley de Boyle – Mariotte es: 1 x 45 = 3 x Pf ==> Pf=(1 x 45)/3=15 atm.

También se puede expresa la Ley d Boyle-Mariotte: A temperatura constante p. v = cte.

Para el caso de aquí abajo

imagen-gases

p1.v1=p2.v2=p3.v3
Ley de Boyle-Mariotte: los volúmenes que ocupa una misma masa de gas, a temperatura constante,
son inversamente proporcionales a sus presiones.

GRÁFICAMENTE SE PUEDE EXPRESA ASI:

imagen-gases

LEY DE BOYLE-MARIOTTE: Una masa de gas ocupa un volumen que está determinado por la presión y la temperatura de ese gas. Las leyes de los gases estudian el comportamiento de una determinada masa de gas, si una de esas magnitudes permanece constante. Boyle observó que cuando la presión aumentaba, el volumen se reducía, y, a la inversa, que cuando la presión disminuía, el volumen aumentaba. De esta manera la ley de Boyle establece que: El volumen de una determinada masa de gas, a temperatura constante, es inversamente proporcional a la presión de ese gas.

LEY DE CHARLES GAY – LUSSAC A PRESIÓN CONSTANTE

En 1787, el físico francés Jacques Charles reflota un viejo postulado enunciado en 1699 por el francés Guillaume Amontons (1663-1705). Éste había observado que el volumen de un gas, a presión constante, disminuía a medida que bajaba la temperatura. La misma comprobación fue realizada cinco años después por Joseph Gay-Lussac (1778-1850). Amontons queda en el olvido, y la ley se conoce hoy como ley de Charles y Gay-Lussac. Su enunciado es el siguiente:

El volumen de una determinada masa gaseosa, a presión constante,
es directamente proporcional a su temperatura absoluta.

imagen-gases

V=volumen y T=temperatura

imagen-gases

LEY DE CHARLES GAY – LUSSAC A VOLUMEN CONSTANTE

Luego de varios experimentos, Charles y Gay-Lussac llegaron a la conclusión de que a volumen constante, la presión aumenta con el aumento de temperatura. La ley de Charles y Gay-Lussac establece que:

La presión de una determinada masa gaseosa a volumen constante
es directamente proporcional a su temperatura absoluta.

imagen-gases

P=presión y T=temperatura

imagen-gases

Ejemplo: Cuando se calienta agua en una olla de presión, el volumen no varia, por lo que aumenta
la presión del vapor de agua hasta que el exceso sale por la válvula de seguridad (de lo contrario, explotaría).

imagen-gases

ECUACIÓN GENERAL DE LOS GASES IDEALES:

La ley de Boyle y las leyes de Charles y Gay-Lussac pueden relacionarse matemáticamente mediante la ecuación de estado del gas ideal, que resulta útil cuando se quiere modificar las tres magnitudes, siempre que la masa del gas permanezca constante y la temperatura se exprese en escala Kelvin.

Hasta ahora hemos visto las siguiente situaciones particulares, llamando a cada una según el científico que las estudió. Ahora las tres se pueden unificar en una sola fórmula.

imagen-gases

Si se aumenta la temperatura de un gas, manteniendo su presión constante, el volumen que ocupa crece proporcionalmente a la temperatura absoluta.

imagen-gasesSi se aumenta la temperatura de un gas, manteniendo su volumen constante, la presión que el gas ejerce sobre las paredes del recipiente crece proporcionalmente a la temperatura absoluta.

imagen-gasesSi se reduce el volumen de un gas, manteniendo su temperatura constante, la presión
crece de manera inversamente proporcional al volumen.

Ecuación de estado del gas ideal:

imagen-gases
O también:
imagen-gases
Donde el valor de la constante depende de la cantidad de gas en cuestión, y T es la temperatura absoluta (en grados Kelvin). Esta ecuación general de estado del gas ideal es útil pues relaciona entre sí todas las variables de estado del sistema. Esto significa que, si conocemos los valores de dos cualesquiera de ellas, la tercera queda completamente determinada.

Debe tenerse en cuenta que las temperaturas han de calcularse en grados absolutos o Kelvin. Éstas se obtienen sumando 273 a las temperaturas obtenidas con la graduación centígrada. Así, la temperatura ambiente de 22o se transforma en 295o absolutos o K.

Ejemplo Numérico: Supongamos un globo que contiene 10 litros de aire a la presión normal, es decir, a una atmósfera y a la temperatura de 18° centígrados. ¿Cuál será su volumen si la temperatura aumenta 10°?

Determinemos, primero, las temperaturas inicial y final de este cambio:
Ti = 18°C + 273° = 291 °K
Tf = (18 + 10) °C + 273° = 301 °K

y, luego, teniendo en cuenta la proporcionalidad directa entre volumen y temperatura,

imagen-gases

y operando, se tiene: Vf= 10 l. x 301° / 291° = 10,34 litros

¿Cómo podemos resolver un problema en el que varíen simultáneamente el volumen, la presión y la temperatura?

Como se explicó antes, combinando las leyes anteriores se llega a la expresión, de Ley de los Gases Perfectos. que nos permite calcular una de las magnitudes en función de las otras. Así, si queremos calcular el volumen final, despejando, tenemos:

imagen-gases

Ecuación General del gas Ideal es:

imagen-gases

Donde n es el número de moles presentes y R es una constante –cuyo valor depende e las magnitudes y unidades empleadas– igual a 0,082 dm3. atm / mol . k. Esta ecuación es sumamente interesante si queremos hallar alguna de las magnitudes y corlemos el resto de las mismas.

imagen-gases
Lámina donde se muestran los instrumentos del laboratorio de Boyle.

imagen-gases

Lámina de «Observations on differents kinds of air» (Philosophical Transactions ofthe Royal Society, 1772; también aparece en el libro titulado Experiments and Observations on Differents Kinds of Air publicado en 1774). de Joseph Priestley, mostrando uno de sus experimentos para demostrar los efectos de la combustión, putrefacción y respiración en una planta de menta y en ratones.

Fuente Consultada:
QUÍMICA I Polimodal
FÍSICA II Polimodal
CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico.
Historia de las Ciencias Desiderio Papp.

Las Naftas Sin Plomo Ventajas y Objetivos Nafta Ecologica Beneficios

Las Naftas Sin Plomo – Ventajas y Objetivos – Nafta Ecológica Beneficios

Uno de los factores que contribuyen en gran medida a la contaminación atmosférica es la emisión de gases tóxicos que efectúan los automóviles. Para eliminar los óxidos de nitrógeno y carbono que se producen durante la combustión de la nafta, los gobiernos de casi todos los países han comenzado a exigir a las industrias automotrices la instalación de convertidores catalíticos (filtros que se colocan antes del caño de escape a fin de oxidar a dióxido de carbono, C02, los compuestos de carbono y reducir a nitrógeno, N2, los óxidos de nitrógeno).

En América latina, el artículo 13 del Tratado de Asunción y varias resoluciones adoptadas en el marco de los acuerdos por el Mercosur (a partir del año 1991) recomiendan determinados carburantes para minimizar la emisión de gases contaminantes. Uno de ellos es la nafta sin plomo, también conocida como nafta ecológica.

Como ya sabemos la nafta es un derivado del petróleo, cuyo comportamiento antidetonante se determina con el índice de octano u octanaje. Para aumentar el octanaje de las naftas se agrega un aditivo, el tetraetil-plomo (Pb(C2H5)4), sustancia que disminuye la detonación pero que contamina el ambiente por liberar plomo a la atmósfera.

nafta sin plomo

¿Qué ocurre con el plomo cuando alcanza la atmósfera?

El plomo elemental es poco reactivo, pero sus compuestos pueden cambiar en presencia de la luz solar, el aire o el agua. Cuando se elimina plomo a la atmósfera, sus partículas permanecen en suspensión durante diez días, y el hombre puede inhalarlo. Además, los compuestos orgánicos penetran por vía cutánea, es decir que se absorben a través de la piel. Finalmente, el plomo contamina las tierras y las aguas, pasa a la vegetación y de allí a los animales, Incluido el hombre, por vía digestiva.

Una vez incorporado, el plomo afecta numerosos órganos y sistemas. El más sensible es el sistema nervioso, en especial en los niños. También afecta el sistema inmune y los glóbulos rojos, ya que altera la síntesis del grupo hemo de la hemoglobina (proteína presente en los glóbulos rojos, encargada del transporte de oxígeno y dióxido de carbono). Produce, además, nacimientos prematuros, con bebés de bajo peso, retardo mental, dificultades de aprendizaje. Retarda el crecimiento de los niños.

En los adultos el plomo disminuye la capacidad de respuesta, causa debilidad en las articulaciones, anemia y abortos espontáneos, daño en el aparato reproductor masculino. Algunos estudios de laboratorio sugieren que elacetato de plomo (Pb(C2H302)2 es una sustancia cancerigena. La intoxicación crónica con plomo se denomina saturnismo y es padecida, por lo general, por individúes que trabajan en industrias donde se emplea este meta

• en la industria automovilística, ya que el plomo se emplea para fabricar baterías y carburantes (antidetonantes);
• en la fabricación de pinturas;
• en la industria de los plásticos, donde el estearato de plomo se emplea como estabilizante;
• en la producción de ácido sulfúrico;
• en la recuperación de metales;
• en la plomería.

El personal involucrado en estas actividades debe ser sometido, de manera obligatoria, a controles periódicos de plombemia, es decir, del nivel de plomo en la sangre. También es preciso efectuar controles ambientales en las áreas de trabajo y las zonas circundantes.

La Organización Mundial de la Salud (OMS) define como intoxicación los valores de Plombemia de más de 15 μg/dl., mientras que el Centro de Prevención y Control de Enfermedades de Estados Unidos recomienda intervención médica cuando los niveles son mayores de 10 mgr/dL en niños y 25 mgr/dL en adultos, en varios trabajadores del supergas se encontraron valores superiores a 30 mgr.

El diagnóstico de saturnismo se realiza mediante el llamado perfil plúmbico que involucra tres tipos de controles: hematológicos, metabólicos y toxicológicos.

Los controles hematológicos se efectúan por observación microscópica de los eritrocitos (serie roja) que se alteran; los controles metabólicos incluyen metabolitos y enzimas presentes en la síntesis del hemo, como la 5-ALA-dehidratasa; las pruebas toxicológicas incluyen el dosaje de plomo en la sangre, en la orina y en el pelo.

Por todo esto, el mejoramiento de las naftas se realiza en la actualidad sin el agregado de plomo.

Entre los métodos-químicos utilizados para aumentar el índice de octano de la nafta sin recurrir al tetra-etil-plomo, se destacan los de isomerización (reformado) y alquilación. Ambos procesos permiten obtener mayores proporciones de isooctano, y se representan mediante las siguientes ecuaciones:

1) Isomerización. A partir del n-octano (lineal) se obtiene su isómero isooctano (ramificado),

2) Alquilación. Adición del 2-metilpropano a la doble ligadura del 2-metilpropeno.

 

 

Fuente Consultada:
QUÍMICA I Polimodal
FÍSICA II Polimodal
CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico

Gobierno Socialista de Brezhnev Leonidas Resumen de su Biografia

Biografía y Gobierno Socialista de Leonidas Brézhnev 

Datos Biográficos de Leonid Ilich Brézhnev nació el 19 de diciembre de 1906 en Kámenskoie, una pequeña ciudad industrial a orillas del Dniéper. Su padre, Iliá, era un inmigrante de la región de Kursk que se había establecido en Kámenskoie para trabajar en la «factoría del Dniéper», nombre que se daba a una fábrica metalúrgica propiedad de capitales polacos, franceses y belgas. Natalia, la madre, era a su vez hija de otro operario de la empresa.

Brézhnev sentía un particular orgullo por este origen obrero, y en su libro Recuerdos se autodefine como «un metalúrgico de pura cepa, un auténtico proletario.» Testigo inquieto y sufriente de los graves acontecimientos que sacudieron a Rusia durante la segunda década del siglo (primera guerra mundial, revolución de octubre), aunque extremadamente joven como para tener una participación directa e importante en ellos, el primogénito de la familia Brézhnev fue un brillante estudiante y un profundo conocedor de la grave situación que vivía su región y de los problemas de sus vecinos y amigos.

Especializado en temas agrarios, al tiempo que desarrollaba una intensa carrera política, este ucraniano de espesas cejas, de apariencia adusta pero enormemente divertido en sus momentos de esparcimiento, terminó por convertirse en uno de los hombres más poderosos de la Tierra y, después de Stalin, en el que más tiempo ha tenido entre sus manos el gobierno de una potencia como la U.R.S.S.

Leonid Ilich creció en el callejón Axionov del barrio obrero de Kámenskoie, llamado «Colonia baja», donde el humo de las fábricas se extendía sobre el arrabal. A los obreros les estaba prohibido el acceso a la «Colonia alta» que habitaban los ingenieros y contramaestres. Durante su infancia empezaron a aparecer los primeros panfletos bolcheviques convocando a los obreros a la insurrección contra las precarias condiciones de vida a las que estaban sometidos.

La era de Brezhnev. El nuevo gobierno, dirigido desde 1964 por Leonid Brezhnev en su calidad de secretario general del Partido Comunista, dio un cambio de giro en política interna volviendo a restringir la libertad en vista del fracaso experimentado por el gobierno anterior en sus intentos de democratización social.

En este contexto se encuentra la nueva política hacia los países satélites de Europa central y oriental, conocida como Doctrina Brezhnev o “Doctrina de soberanía limitada”, vigente hasta mediados de la década de 1980.

Sin embargo, en política exterior, Brezhnev anunció el propósito de continuar la coexistencia pacífica con Occidente y restaurar la unidad comunista que se había roto con China en tiempos de Kruschev.

Las primeras medidas adoptadas por el nuevo gobierno dieron como resultado algunas mejoras económicas en conjunto, pero no se logró aliviar la situación de la agricultura, sector que en 1972 entró en una nueva crisis, más grave todavía que la de 1963, y obligó a las autoridades a realizar importaciones de alimentos cada vez más cuantiosas y más perjudiciales para la economía soviética.

Por otra parte, la aceleración desmedida de la industrialización provocó el efecto contrario del estancamiento de la industria ligera, al grado que resultaba imposible satisfacer el consumo de la creciente población.

Leonid Brezhnev

Se hacía evidente entonces que la economía soviética estaba muy lejos de alcanzar, y mucho menos superar, la de Estados Unidos como Kruschev había prometido años atrás, sino por el contrario, acentuaba aún más su retraso.

Esta tendencia persistía a pesar de la crisis económica que experimentaron los países del bloque occidental en la década de 1970; así pues, lejos de avanzar hacia el comunismo, es decir, hacia la igualdad de clases, en la sociedad soviética se acentuaban las desigualdades.

Otra característica de la URSS en este periodo fue el inmovilismo del sistema, manifiesto en la escasa renovación de los cargos, de modo que se fue produciendo un progresivo envejecimiento de la clase política. Brezhnev se propuso fortalecer el sistema y dotar a la burocracia —la llamada nomenklatura—, integrada por unos dos millones de personas, de una mayor estabilidad para mejorar su prestigio.

En la Constitución creada en 1977, se fortaleció el papel centralizador del Partido Comunista, y se dio una mayor concentración del poder en los altos dirigentes del Estado.

https://historiaybiografias.com/linea_divisoria3.jpg

AMPLIACIÓN SOBRE LA HISTORIA DE SU BIOGRAFÍA Y  GOBIERNO: En octubre de 1964 el pleno del comité central del P.C.U.S. relevó a Nikita Kruschev de sus funciones y eligió a Leonid Brézhnev nuevo primer secretario.

En el momento de su ascenso a la cumbre del poder soviético, Brézhnev se vio flanqueado por Alexéi Kosiguin que fue nombrado jefe del gobierno de la nación. Aunque las diferencias entre el antiguo primer secretario y sus sucesores fueron más de estilo que de esencia, los nuevos líderes soviéticos impulsaron cambios importantes sobre todo en cuestiones económicas.

Disminuyeron las restricciones a las granjas privadas, aumentaron las ganancias de los agricultores y acabaron con la división entre trabajadores industriales y trabajadores agrícolas dentro del partido. Como consecuencia de todo esto subieron los salarios, mejoraron las medidas de bienestar social y los bienes de consumo se hicieron más asequibles.

En las cuestiones culturales se verificó un giro hacia posturas más conservadoras y los intelectuales rusos fueron advertidos de que cualquier desviación de los principios que alentaron la Revolución de Octubre sería duramente reprimida. A principios de 1966 fueron condenados a largas penas de prisión los escritores contestatarios Andréi Siniavsky y Yuri Daniel, comenzando así una larga batalla por la libertad de expresión en la U.R.S.S. que tuvo su mayor eco internacional con la expulsión del premio Nobel A. Solzhenitsin en 1974.

Su política exterior estuvo orientada hacia la aplicación de la doctrina de la «soberanía limitada» con respecto a los demás países socialistas, extendiendo el concepto de «internacionalismo proletario» hasta la misma intervención militar cuando se creía advertir una violación de los principos mar-xistas-leninistas y cuando se corría el riesgo de que uno de estos países escapara a la influencia soviética.

Nikolái Podgorny ascendió en diciembre de 1965 al cargo de presidente del presidium del soviet supremo, formando con Brézhnev y Kosiguin la «troika» que dirigió los destinos del país durante más de una década.

Durante el desarrollo del XXIII congreso del P.C.U.S., Leonid Brézhnev fue por primera vez denominado «secretario general», título que hasta el momento sólo había recibido Stalin.

En diciembre, celebró su sesenta aniversario con gran solemnidad, rodeado por sus más fieles colaboradores entre los que cabe señalar a Andréi Gromiko, ministro de exteriores, a Yuri Andrópov, jefe de la K.G.B., al mariscal Gretchko, ministro de defensa y a Konstantín Chernenko, su antiguo camarada de armas, que ocupaba el ministerio de la presidencia.

Tras la «guerra de los seis días» que enfrentó a Israel con los países árabes aliados de la U.R.S.S., el año 1968 estuvo dominado por la crisis de antisemitismo en Polonia y por la «primavera de Praga» que concluyó el 20 de agosto con la invasión de la capital checa por las tropas de los países del pacto de Varsovia, excepto Rumania.

El mes anterior Brézhnev había advertido al dirigente húngaro, J. Kádar que «la U.R.S.S. no podía permanecer indiferente a la construcción del socialismo en los demás países.».

Junto a esta aplicación estricta del principio de la «soberanía limitada», el primer mandatario soviético extendió su política de distensión con las potencias occidentales al firmar los acuerdos de Helsinki, establecer las negociaciones preliminares para la limitación de armas estratégicas (S.A.L.T.) y estrechar las relaciones con el gobierno alemán federal de Willy Brandt.

Pero al mismo tiempo que se abrían vías de comunicación con Occidente, su política interior tenía un claro carácter continuista. En el centenario del nacimiento de Lenin, celebrado en la plaza Roja, Brézhnev recordó las dificultades económicas que padecía el país y convocó a la militancia a defender la ortodoxia comunista.

Por otra parte, el Leonid Brézhnev que a principios de los años sesenta buscaba afianzar su autoridad había dejado paso a un Brézhnev completamente al mando de la situación, que redujo o eliminó a todos sus opositores dentro del «aparato» y que delegaba en Kosiguin la recepción de autoridades extranjeras y en sus subordinados del comité central las relaciones con las instituciones de la U.R.S.S.

En octubre de 1970, Richard Nixon anunció desde la tribuna de la O.N.U. que el futuro del planeta dependía de las relaciones entre las dos superpotencias y en noviembre Washington confirmó que se había logrado un acuerdo tácito con Moscú para la utilización de la base militar de Cienfuegos, en el Antartico. Sin embargo, tanto estos acuerdos como los de cooperación espacial y para la pesca en el Pacífico no evitaron las tensiones a uno y otro lado del muro de Berlín, ni la ruptura de las negociaciones para el desarme en enero de 1971, en Nueva York, por la intervención de extremistas judíos.

Las conversaciones sobre la limitación de armas estratégicas se reemprendieron durante el mes de julio, y Washington y Moscú sustituyeron el «teléfono rojo» que les relacionaba hasta entonces por un sofisticado sistema de comunicación vía satélite para evitar los riesgos de una guerra nuclear.

Mientras, en el frente interno, se celebró el XXIV congreso del P.C.U.S., con un año de retraso a causa de las diferencias entre reformistas y centralizadores en lo referente a la manera de abordar los problemas económicos que atravesaba el país. La crisis estalló en noviembre cuando se produjo la entrada en el buró político de Y. Andrópov y A. Gromiko sustituyendo a los «dogmáticos» Vóronov y Chelest.

El momento álgido de la distensión Este-Oeste se produjo en mayo de 1972, cuando el presidente estadounidense Richard Nixon visitó oficialmente Moscú y, tras una semana de reuniones al más alto nivel, se emitió una declaración conjunta que incluía los «doce puntos básicos de las relaciones bilaterales». Fruto de estos acuerdos llegaron las primeras reuniones para tratar temas comerciales entre delegaciones de los dos países. En 1973, en pleno escándalo Watergate, Brézhnev devolvió la visita a Nixon.

Con el sucesor de Nixon, Gerald Ford, las dos superpotencias intentaron mantener el clima de entendimiento con la firma, en noviembre de 1974, en Vladivostok, de un acuerdo de limitación de armas estratégicas ultimado durante la visita del secretario de estado H. Kissinger a Moscú en el mes de marzo. Pero las relaciones se enfriaron tras la derrota estadounidense en la guerra del Vietnam y las transacciones comerciales se vieron interrumpidas por la intervención del congreso de E.U.A. en contra de las restricciones impuestas por la U.R.S.S. a la emigración de ciudadanos judíos.

Ni siquiera la firma, en julio de 1975, del acta final de la conferencia sobre la seguridad y la cooperación en Europa celebrada en Helsinki consiguió mejorar sustancialmente las relaciones entre ambos bloques y recuperar el clima de los años anteriores. Junto a los acuerdos de principios que nunca fueron llevados a la práctica, Brézhnev consiguió ver ratificada la anexión de vastos territorios ocupados por la U.R.S.S. durante la segunda guerra mundial.

El incumplimiento de las cláusulas del acta de Helsinki relativas a los derechos humanos contribuyó a empeorar las relaciones entre los dos países. Ante las acusaciones de Cárter sobre la represión de la disidencia, Brézhnev respondió que «las pretensiones de Washington de enseñar a vivir a otros países no pueden ser toleradas por ningún estado soberano.»

En mayo de 1976, Leonid Brézhnev fue promovido a mariscal de la Unión Soviética y le fue dedicado un busto en su ciudad natal. Poco después sufrió un infarto que estuvo a punto de costarle la vida.

En el pleno del comité central del P.C.U.S. de mayo de 1977 se inició la concentración de poderes en las manos de Brézhnev. Nikolái Podgorny fue excluido del buró político y, pocos días después, se presentó en el parlamento soviético un proyecto de reforma constitucional destinado a sustituir la constitución promulgada por Stalin en 1936. Desde ese momento, Leonid Brézhnev reunió en su persona las jefaturas del partido y del estado.

Si la práctica totalidad de su mandato se vio marcada de forma especial por los logros alcanzados en el terreno político internacional, la última parte de la era Brézhnev se caracterizó por los problemas de la U.R.S.S. con algunos países próximos. La crisis de Polonia que provocó una intervención casi directa de la U.R.S.S. en la reorientación política del país y la invasión de Afganistán, hipotecaron muchos de los logros que se habían alcanzado en el terreno de la distensión.

Aparte del extraordinario papel político jugado por Brézhnev, cabe destacar también su faceta literaria que le llevó a publicar varios libros, entre ellos Pequeña tierra, sobre la batalla de Novorossiisk, Recuerdos, un libro autobiográfico, y En las tierras vírgenes, sobre sus experiencias agrarias en el Kazajstán.

Entre las aficiones de Brézhnev, se sitúan en un lugar preferente los coches lujosos. También se dijo que prefería los westerns a las representaciones del ballet Bolchoi. Gran fumador, nunca dejó los cigarrillos americanos aun después de su infarto de 1976. Bebedor empedernido y mujeriego incorregible pero profundamente ligado a su familia, Henry Kissinger dijo de él que representaba mejor que nadie al pueblo ruso.

Después de 18 años de liderazgo al frente de la U.R.S.S., falleció de forma inesperada el 11 de noviembre de 1982, sucediéndole en el cargo Yuri Andrópov.

Fuente Consultada:
El Gran Libro del Siglo XX de Clarín – El Mundo Moderno y Contemporáneo de Gloria Delgado

Biografia y obra científica de Robert Boyle Leyes y Experimentos

Biografía y Obra Científica de Robert Boyle 

Revolución Cientifica, Robert Boyle

Los experimentos de Boyle: ROBERT BOYLE (1627-1691),nació en Limore, Munster, Irlanda, en 1627, el menor de catorce hijos del conde de Cork, pero de la segunda esposa del conde, de una posición económica muy buena lo que le permitió acceder a los conocimientos científicos de esa época.

En realidad tuvo una educación truncada, pero su mente siempre la mantuvo bien despierta por su pasión por la ciencia.

En colaboración de Robert Hooke, concluyó que en los gases el volumen, la presión y la temperatura estaban vinculados muy estrictamente.

Boyle se dedicó a la física y la química, mostrando particular interés en las propiedades físicas de la atmósfera.

Como decíamos antes , con la colaboración de su ayudante Robert Hook, un joven con conocimientos técnicos y capacidad suficiente para convertir las ideas de Boyle en modelos prácticos, perfeccionó la bomba de aire de Von Guericke que extraía aire de un cilindro.

La máquina de Boyle podía sacar aire de cualquier recipiente al que fuera conectada. Con su bomba Boyle realizó muchos experimentos con el objeto de determinar las propiedades físicas de la atmósfera.

Demostró que el aire transmitía el sonido.

De muy joven viajó (1641) estuvo en Florencia, y se interesó por los trabajo del recién fallecido Galilei. Pasado tres años cuando volvió a Inglaterra, donde se reunía asiduamente con grupos de científicos, quien mas tarde formarían la Real Sociedad, institución que goza de la mejor reputación científica mundial.

 Robert Boyle (imagen arriba) (Lismore, 25 de enero de 1627 – Londres, 30 de diciembre de 1691)

Químico y físico irlandés, hijo del primer conde de Cork y séptimo varón de un total de 14 hijos. De muy joven, va a estudiar a Eton. Su intención es ingresar en la Iglesia, pero debe renunciar a ello a causa de su precario estado de salud.

De Eton viaja por Europa durante seis años, a la vuelta de los cuales ha heredado el señorío de Stelbridge, en el que se establece.

Fue uno de los primeros en conceder credulidad a las transformaciones propugnadas por los alquimistas. No en vano sus aficiones teológicas derivaron hacia una gran atención para con lo oculto. Funda el «Colegio Invisible», que perderá su carácter esotérico para convertirse en la «Royal Society» (1645).

Algunos historiadores británicos se han referido a Boyle como «el padre de la química», pero eso es llevar el orgullo nacional demasiado lejos. (Dadone el trabajo en equipo que suponen los descubrimientos científicos, es dudoso que nadie deba llamarse «el padre» de nada. Pero si a alguien le pertenece el título de «padre de la química» es al francés Lavoisier, que vivió un siglo después.)

Boyle no creó la química moderna, lo que hizo fue liberar a la química de parte del peso muerto que arrastraba del pasado y aclarar el camino para lo que llegaría después, sentando el principio de que los hechos químicos deben ser establecidos mediante experimentos, no por simples especulaciones de salón.

Los experimentos de Boyle, que llevó a cabo con la ayuda de ayudantes a sueldo, fueron muchos y variados.

Usando la bomba de aire recientemente inventada, fue el primero en demostrar la aseveración de Galileo de que, en el vacío, una pluma y un trozo de plomo caen a la misma velocidad, y también estableció que el sonido no se transmite en el vacío.

Su descubrimiento más importante gracias a la bomba de aire fue el principio (aún conocido corno Ley de Boyle en los países de habla inglesa) de que el volumen ocupado por un gas es inversamente proporcional a la presión con la que este gas se comprime.

Es decir, que si se dobla la presión, el volumen se divide por dos, y así sucesivamente; y también que, si se elimina la presión, el aire «recupera» (su propia palabra) su volumen original.

Habiendo establecido que el aire era comprimible, Boyle se convenció de que éste estaba compuesto de pequeñas partículas separadas por espacio vacío.

Todas estas ideas se publicaron en un libro con un título muy largo, que suele llamarse La elasticidad del aire y que jugó un papel significativo para establecer la idea de la naturaleza atómica de la materia.

El libro más importante de Boyle, El químico escéptico, se publicó en 1661, y al año siguiente Boyle se convirtió en miembro fundador de la Royal Society. Fue en este libro donde apuntó la idea de que todas las sustancias podían ser divididas en ácidos, álcalis o neutros mediante el uso de lo que llamamos indicadores.

Aunque sus experiencias se desarrollaron dentro de un gran campo, tanto de la Física como de la Química, se centraron fundamentalmente en el aire, para lo que fue clave la máquina neumática ideada por Otto von Guericke. En estos experimentos contó con la colaboración de otro gran físico: R. Hooke.

Elementos químicos: Quizá la contribución más significativa de Boyle al desarrollo de lo que más tarde sería la ciencia química fue su concepto del elemento químico. La propia palabra no era nueva.

Los griegos, siguiendo al filósofo Empédocles, la utilizaban para describir lo que consideraban las cuatro sustancias fundamentales del universo: la tierra, el aire, el fuego y el agua.

Aunque estos elementos no contenían un concepto científico en el sentido moderno, sino que eran más bien esencias místicas incluidas en toda materia viviente y no viviente, y que formaron la base del pensamiento humano sobre los procesos naturales durante dos mil años.

La idea de Boyle de un elemento químico era muy diferente. Para él, un elemento era una sustancia que no podía ser descompuesta en otras sustancias.

Un elemento podía combinarse con otro y formar un compuesto; y un compuesto podía separarse en sus elementos constituyentes. Pero la prueba de lo que era o no era un elemento debía decidirse mediante un experimento práctico, no sólo por deducción.

Éste era un punto de vista moderno; y ayudó a crear el universo mental en el que habitarían los químicos posteriores.

Pero hasta el propio Boyle fue incapaz de superar la influencia de tantos siglos de alquimia, ya que siguió creyendo en la posibilidad de transformar los metales comunes en oro.

Y no rechazó los elementos antiguos… sólo quiso someterlos a la investigación experimental.

Descubrir los elementos: Mientras los científicos empezaban a adoptar esta nueva forma de pensar, los antiguos «elementos» eran abandonados poco a poco, y el término comenzó a ser utilizado tal como lo hacemos hoy.

Pero la lista de sustancias a las que podía aplicarse el término en su sentido moderno era breve.

A finales del siglo XVII, y en ese sentido moderno de la palabra, sólo se reconocían 14 elementos. Nueve de ellos eran metales que se conocían desde la antigüedad: oro, plata, cobre, plomo, zinc, estaño, hierro, mercurio y antimonio.

Dos eran elementos no metálicos, también conocidos por los antiguos: carbono y azufre.

Dos más eran metales descubiertos en el siglo XVI, bismuto (en Europa) y platino (en Sudamérica). A estos trece, se agregó un nuevo elemento no metálico —el fósforo— descubierto en la orina por el propio Boyle en 1680.

En su obra «Sceptical Chymist» (1661) definió el cuerpo simple como el que no es susceptible de una descomposición ulterior, definición bien conocida por el papel que ha jugado en la historia de la Química. También mostró que el método pirognóstico, que hasta entonces se venía empleando en análisis, no es satisfactorio.

Aunque es cierto que estos 14 elementos se habían identificado a finales del siglo XVI, no lo es que fueron reconocidos como elementos en el sentido moderno del término.

Cuando los químicos actuales hablan de elementos, utilizan la palabra en el sentido de ingredientes básicos de los que están compuestos los materiales del mundo.

Para ellos, el aire es un compuesto de dos elementos —oxígeno y nitrógeno—, con pequeñas cantidades de otros gases.

Uno de ellos, el anhídrido carbónico es considerado un compuesto de dos elementos, carbono y oxígeno.

Esta visión de la química como una colección de recetas, usando un pequeño número de ingredientes básicos, era absolutamente ajena a los filósofos naturalistas del siglo XVII.

Aunque reconocían el cobre, el oro y el azufre como «elementos», para ellos también lo era el aire… y no estaban muy seguros acerca del fuego.

A diferencia de los astrónomos, que jugueteaban iluminados por el sol de la mecánica newtoniana, los químicos del siglo XVII todavía se movían en la oscuridad, buscando una luz que les iluminase el camino.

Tardarían cien años más en encontrar su Newton particular y conseguir que la química adquiriera el lugar que le corresponde entre las ciencias naturales.

Leyes de Boyle

Presión volumen y temperatura: Justo antes de que Boyle publicase El químico escéptico, había anunciado la conclusión de algunos trabajos que había realizado con su ayudante Robert Hooke. Hooke había desarrollado un inflador de aire, y esto dio a Boyle la oportunidad de observar las propiedades mecánicas de los gases.

Pusieron una candela encendida en una jarra y después extrajeron el aire. La luz se apagó. El carbón incandescente cesaba de dar luz, pero empezaría a arder de nuevo si se introducía aire mientras el carbón estuviese aún caliente.

, la combustión requería alguna propiedad física del aire. Además, colocaron una campana en la jarra y, de nuevo sacaron el aire.

Ya no oían el sonido de la campana. Muchos de los resultados de Boyle le confundían, pero una cosa sí clarificó, y ésa era la relación entre la temperatura, la presión y el volumen de una cantidad fijada de gas.

Si se comprimía el gas y se reducía su volumen, la temperatura crecía. Por tanto, la ley de Boyle manifiesta que para una masa fija de gas, la presión y el volumen son inversamente proporcionales.

libro de Boyle

La publicación de El químico escéptico marcó el comienzo de una nueva era en las pautas depensamiento de los científicos que luchaban para encontrar sentido al mundo físico.

GRÁFICAMENTE SE PUEDE EXPRESA ASI:

curva de boyle sobre gas

LEY DE BOYLE: Una masa de gas ocupa un volumen que está determinado por la presión y la temperatura de ese gas. Las leyes de los gases estudian el comportamiento de una determinada masa de gas, si una de esas magnitudes permanece constante. Boyle observó que cuando la presión aumentaba, el volumen se reducía, y, a la inversa, que cuando la presión disminuía, el volumen aumentaba. De esta manera la ley de Boyle establece que: El volumen de una determinada masa de gas, a temperatura constante, es inversamente proporcional a la presión de ese gas.

Fuente Consultada:
Historia de las Ciencias Desiderio Papp y Historias Curiosas de las Ciencias de Cyril Aydon

Balanza de Henry Cavendish Medir la Constante de Gravitacion

Balanza de Henry Cavendish: Constante de Gravitación

Desde hace tiempo, la Universidad de Cambridge ha sido considerada como el hogar de los descubrimientos científicos y matemáticos. El protagonista de mayor envergadura y grandiosidad de esta historia de éxitos científicos fue Isaac Newton, con sus masivas contribuciones a la física y a la matemática. Gran parte del trabajo experimental realizado por él tuvo lugar en sus habitaciones privadas del Trinity College.

Muchos de los grandes científicos de los siglos XVII y XVIII trabajaron en circunstancias similares, siendo, la mayoría de ellos, personas con medios pecuniarios propios que proseguían sus investigaciones por estar profundamente interesados en las causas que entrañaban los fenómenos materiales.

La física misma no fue enseñada en Cambridge como objeto de asignatura universitaria hasta mediados del siglo xix, ya que hasta 1871 —pocos años después de haberse instituido los exámenes en las asignaturas de calor, electricidad y magnetismo— no decidió la Universidad nombrar un profesor de física, al que proporcionaron un aula y un laboratorio.

Las 6.300 libras esterlinas necesarias para su edificación fueron donadas por el jefe de la familia Cavendish, a cuyo antepasado, Enrique Cavendish, se debía la realización de muchos experimentos famosos, en uno de los cuales determinó exactamente la masa de la Tierra. Debido a ello, el nuevo laboratorio recibió el nombre de Cavendish.

Cavendisch La Revolución CientíficaDETERMINAR EL PESO DE NUESTRO PLANETA TIERRA: La maniobra de Maskelyne contra Harrison se recuerda ahora en contra suya. Pero en su posición de astrónomo real estaba involucrado en una empresa científica que lo situó bajo una luz favorable.

Un siglo después de la publicación de los Principia de Newton, todavía quedaba sin realizar un experimento sugerido en el libro: aunque Newton había establecido la existencia de la fuerza de la gravedad, no había podido darle un valor concreto.

Todos los cálculos involucrados en la gravedad estaban basados en la atracción relativa entre objetos de masas diferentes.

El valor que permitiría establecer la fuerza absoluta de la gravedad en cualquier situación dada —la constante gravitatoria— era desconocido.

Newton sugirió que si se suspendía una plomada junto a una montaña, la gravedad de la montaña la empujaría ligeramente fuera de la vertical, y la desviación podría ser lo bastante grande como para ser mensurable.

Si así fuera, la desviación permitiría calcular las masas relativas de la montaña y de la Tierra, y si la masa de la montaña podía ser calculada con una exactitud razonable, entonces sería posible llegar hasta el valor de la masa de la Tierra y, por consiguiente, a la constante de la gravitación. Dado que se conocía el volumen de la Tierra, eso también haría posible determinar la densidad media de la Tierra.

El problema era encontrar una montaña adecuada. Para estimar su masa, tendríamos que saber su densidad media. Y si también había que estimar su volumen, cualquier error se multiplicaría hasta un grado inaceptable.

Así que la montaña necesitaría tener una forma regular para estar bastante seguro de su volumen. A sugerencia de Maskelyne, la Royal Society se lanzó a buscar una montaña conveniente.

La tarea le fue asignada a un amigo superviviente de Maskelyne llamado Charles Mason (el Mason de la línea Mason-Dixon), que regresó informando que había encontrado una montaña hermosamente proporcionada llamada Schiehallion, en las highlands escocesas, que parecía ideal para su propósito.

El estudio de la montaña fue supervisado por el propio Maskelyne, que en 1774 pasó cuatro meses en un campamento al pie de la mole.

Los cálculos se delegaron en un joven matemático llamado Charles Hutton, que dio la primera cifra científicamente calculada de la masa terrestre: 5 x 1021 toneladas métricas (5.000.000.000.000.000.000.000 toneladas).

El cálculo de la masa terrestre era un acontecimiento excitante por sí mismo, pero la importancia del resultado fue inmensamente mayor. Como la teoría de Newton ya había establecido las masas relativas de la Tierra, del Sol, de la Luna y de todos los planetas, ahora era posible calcular sus masas reales. Sólo ciento sesenta y cinco años después de que Galileo apuntase su primer telescopio a los cielos, todo el sistema solar había sido pesado y medido. La astronomía había alcanzado su mayoría de edad.

Maskelyne se sintió justificadamente contento con el resultado de su campaña para calcular la masa de la Tierra, pero otros estaban menos satisfechos. El cálculo sólo había sido posible basándose en suposiciones. La forma delimitada de la montaña y la cuidadosa medición de sus dimensiones aportaban cierta seguridad sobre la estimación de su volumen, pero para llegar a la cifra clave del cálculo —la masa de la montaña— había sido necesario hacer una estimación de su densidad basándose en el tipo de roca que la componía. Si esa estimación resultaba ser incorrecta, la respuesta final también lo sería.

La estimación de Hutton de 5.000 trillones de toneladas sólo era una aproximación útil; pero los científicos pronto empezaron a buscar una forma de conseguir una cifra más exacta. En 1798, otro inglés obtuvo esa medida exacta que todo el mundo estaba buscando… y lo consiguió sin salir de su casa.

Henry Cavendish nació en 1731, en la ciudad francesa de Niza, donde vivía su madre por motivos de salud. Ella murió cuando él tenía dos años. Cavendish se educó en Inglaterra y pasó cuatro  años en la Universidad de Cambridge, pero no consiguió ningún título, ya que era demasiado tímido para enfrentarse a los examinadores.

El ser nieto de dos duques y heredar cierta fortuna de una tía lo convirtió en uno de los hombres más ricos de su tiempo. También fue uno de los más recluidos. Vivía solo, evitaba a sus visitantes y pedía las comidas dejando una nota para su ama de llaves. Llevaba una vida sencilla y nunca le importó el dinero.

En cierta ocasión, su banquero le comentó que poseía en su cuenta corriente el equivalente a 7 millones de euros, y le sugirió que él podría invertirlo para conseguirle el máximo interés. Cavendish le respondió que si volvía a molestarlo, se llevaría su dinero a otro banco.

Cavendish heredó de su padre el interés por la ciencia, y fue su pasión durante sesenta años. No le preocupaba la fama y publicó poco, por lo que muchos de sus descubrimientos no se conocieron hasta después de su muerte. Su nombre se conmemoró en el Laboratorio Cavendish de Cambridge y en el famoso «Experimento Cavendish» que él mismo dirigió.

Éste había sido concebido por su amigo John Michell, clérigo y geólogo perspicaz, que también diseñó el aparato, pero que murió antes de poder realizar el experimento. Cavendish adquirió su equipo, y lo instaló en una de sus casas londinenses.

El aparato era sencillo: Consistía en 2 bolas metálicas, de 30 centímetros! 12 pulgadas de diámetro, suspendidas de un caballete de acero; y 2 bolas más pequeñas de 5 centímetros! 2 pulgadas de diámetro, suspendidas cerca de las primeras y conectadas entre sí por un fino cable de cobre.

Constituía lo que técnicamente se llama una báscula de torsión. Estaba diseñado para medir el movimiento de torsión creado en el alambre por la atracción gravitatoria que ejercían las bolas más grandes sobre las más pequeñas mientras se movían sobre unas poleas que las mantenían suspendidas.

Balanza de Cavendish

Balanza de Cavendish

Para que la proximidad de los investigadores no perturbase el ajuste del equipo, el experimento se dirigió por control remoto. Cavendish utilizó un telescopio, montado fuera del cuarto, para leerla escala graduada minuciosamente que medía el movimiento (una centésima de pulgada) y que se iluminaba mediante un estrecho haz de luz dirigido desde fuera del cuarto.

La gravedad es una fuerza débil, y las mediciones que Cavendísh se proponía realizar eran tan sutiles que casi desafiaban la credulidad. Pero tanto su aparato como él estaban muy capacitados para la tarea, y finalmente propuso que la densidad de la Tierra era de 5,48 veces la densidad del agua. Resultaba un 20 % mayor que lo obtenido en el experimento de Schiehallion, y dentro del 1 % de margen de error que se acepta hoy día.

Tras su muerte se descubrió que había cometido un error en sus cálculos, sin el cual el resultado habría llevado a un 1,5 % de error sobre el valor correcto, pero dado que la atracción que ejercían unas bolas sobre las otras era únicamente de 1!50.000.000 parte de la que la Tierra ejercía sobre ellas, se le puede perdonar la inexactitud.

UN POCO DE HISTORIA…
EL LABORATORIO  CAVENDISH

En 1871, Jacobo Clerk Maxwell fue nombrado para desempeñar el puesto de primer profesor del Cavendish, pero el propio laboratorio no estuvo terminado hasta 1874. Maxwell, antes de ir a Cambridge, se había distinguido por sus trabajos sobre la naturaleza de las ondas luminosas y sobre la teoría cinética de los gases. Mientras estuvo en Cambridge, no añadió gran cosa a sus trabajos originales.

Sin embargo, organizó un laboratorio donde se inculcaba a los alumnos que el trabajo experimental convenientemente orientado constituía la única base de certeza para la física, y creó una escuela de investigación cuyos tipos de experimento y trabajo teórico jugaron un papel decisivo en el nacimiento de la física moderna.

Lord Rayleigh, nombrado en 1879 para suceder a Clerk Maxwell, continuó el trabajo sobre constantes eléctricas iniciado por éste, y extendió ampliamente el campo de los temas de su investigación, desde el telescopio a las ondas sonoras. Cuando Rayleigh, pasados cinco años, abandonó el Cavendish, éste se había convertido en un importante laboratorio de investigación.

Bajo su nuevo director, J. J. Thomson, el laboratorio progresó hasta convertirse en una institución donde se adiestraban o realizaban sus investigaciones los mejores físicos del mundo. Thomson mismo, sin conocérselo aún como gran experimentador, fue capaz de aclarar la mayoría de los secretos del átomo, valiéndose de un simple y primitivo conjunto de aparatos. Descubrió el electrón, lo que proporcionó el primer paso en el desarrollo de la moderna teoría atómica.

Independientemente del trabajo experimental, la institución, que había progresado bajo el mando de Thomson, adquirió renombre universal. Uno de los científicos atraídos por dicha fama fue el joven neozelandés Ernesto Rutherford, quien dio comienzo a sus trabajos de física atómica al colaborar con Thomson en Cavendish,» labor que continuó al trasladarse luego a Toronto y después a Manchester.

Su regreso a Cavendish tuvo lugar en 1918, como sucesor de Thomson en la cátedra de física. La mayoría de sus experimentos, que contribuyeron a explicar la naturaleza de la radiactividad y la estructura del átomo, fueron realizados, según la tradición del laboratorio, con aparatos de sorprendente sencillez.

Sin embargo, a medida que fue desarrollándose la ciencia atómica, el instrumental del Cavendish hubo de transformarse, necesariamente, de un más complicado y avanzado diseño, incluyendo aparatos tales como el equipo para acelerar partículas de J. Cockroft y E, T. S. Walton, y del físico ruso L. P. Kapitza.

Es impresionante la lista de los sabios ganadores de premios Nobel que pasaron por Cavendish durante el período de Thomson y Rutherford; los 50 años abarcados por su dirección combinada señalan una época en la que el laboratorio fue el principal protagonista en el desarrollo de la ciencia nuclear.

A partir de entonces se han mantenido las grandes tradiciones de Cavendish como institución docente y de investigación. A Ernesto Rutherford lo sucedió, en 1938, Guillermo Lorenzo Bragg, y a éste Neville Mott, en 1954. Ambos científicos han realizado notables trabajos sobre la estructura de los sólidos.

Fuente Consultada: Historia de las Ciencias Desiderio Papp y Historias Curiosas de la Ciencia