Los Gases Ideales

Gay Lussac Vida y Obra Cientifica Ley de los Volúmenes

Gay Lussac Vida y Obra Científica

ÁTOMOS Y MOLÉCULAS: Hasta la aparición de los trabajos de Antoine Lavoisier, la química estaba totalmente dominada por la teoría del flogisto. Los experimentos de Lavoisier transformaron la alquimia en química: una ciencia cuantitativa. John Dalton, en  su   “Nuevo sistema de   la   filosofía  química”   (1808), estableció la “Ley de las proporciones definidas” y la “Ley de las proporciones múltiples“.

Dalton pensó que los átomos de cada elemento tenían un peso atómico característico y que los átomos formaban las unidades que entraban a tomar parte en las reacciones químicas. Pero Dalton no disponía de un método inequívoco de asignar pesos atómicos, y supuso erróneamente que los compuestos más sencillos que pueden formar dos elementos estaban constituidos de dos átomos, uno de cada elemento.

En este sistema, la fórmula del agua se escribirá HO y la del amoníaco NH. En esa época, Gay-Lussac enunció su ley, en la que se estableció que los volúmenes de las sustancias que forman parte de una reacción y la de los productos resultantes, siempre que todos ellos sean gaseosos, están en la relación de los números enteros y sencillos. Hasta 1860 sin embargo, no se aclararon totalmente los conceptos de átomo y molécula, a pesar de que la ley que condujo a ello había sido anunciada por Avogadro en 1811.

Esta ley, que decía que a igualdad de temperatura y presión, un mismo Volumen de cualquier gas contenía el mismo número de moléculas, deshizo los errores aceptados hasta esa época, al establecer que una molécula podía estar formada por átomos iguales. Los trabajos de Avogadro fueron injustamente olvidados hasta la conferencia de Karlsruhe en 1860.

La razón de este desprecio fue la creencia, profundamente enraizada en las mentes más significativas de la época, de que las combinaciones químicas ocurrían en virtud de una cierta afinidad entre elementos distintos. Con los descubrimientos de Volta y Galvani, esta afinidad fue asignada a atracciones de tipo eléctrico. La idea de que dos átomos de hidrógeno pudieran combinarse para formar una molécula H2 repugnaba   a   los   químicos   de   principios   del   siglo   XIX.

OBRA CIENTÍFICA DE GAY LUSSAC:

José Luís Gay-Lussac es conocido, sobre todo, por haber establecido la ley de los volúmenes gaseosos. Probablemente, esto se debe a que esa ley aún lleva su nombre: Ley de Gay-Lussac.

Este célebre científico dijo que cuando los gases se combinan, sus volúmenes mantienen entre sí una relación simple, si sus temperaturas y presiones son constantes.

Estos volúmenes también mantienen una relación simple con los volúmenes de los productos formados, si estos productos son gases. Si los productos formados son sólidos o líquidos, esto último no es aplicable. Por ejemplo: 2 cm3 de hidrógeno se combinan explosivamente con 1 cm3 de oxígeno para formar 2 cm3 de vapor de agua. Estas relaciones entre volúmenes son sencillas.

experimento de Gay Lussac

No ha quedado nada de hidrógeno ni de oxígeno. Pero, cuando el vapor se condensa para formar agua, ocupa un volumen menor Esto fue sólo una pequeña parte del trabajo de Gay-Lussac, pues tuvo una mente muy activa  y, junto a sus descubrimientos en el campo de la física, contribuyó a otros, en la química y en la industria química.

Cientifico Gay LussacGay-Lussac nació en St. Leonard, un pueblo pequeño situado al sur de Francia, y a la edad de 19 años ingresó en la Escuela Politécnica de París. Al salir de ésta, en 1801, comenzó a trabajar en el Departamento de Caminos y Puentes. Inició sus investigaciones cuando fue elegido por Berthollet para trabajar como asistente suyo en los establecimientos químicos del gobierno, en Arceuil.

En 1802, como resultado de sus experimentos con gases, expuso la idea de que todos los gases se dilatan al mismo volumen si se eleva su temperatura en la misma cantidad. Esta idea fue simultáneamente expresada por J. Charles, que trabajaba independientemente. Gay-Lussac también efectuó experimentos para encontrar el coeficiente de dilatación de los gases. Este coeficiente es el volumen hasta el que se dilataría un centímetro cúbico de gas, si su temperatura aumentara un grado centígrado.

El valor que encontró es algo mayor que el valor que ahora se acepta. Después se interesó en el estudio de los vapores, y realizó experimentos para hallar las densidades de algunos de ellos.

Al efectuar estos trabajos, se dio cuenta de que el diseño de termómetros y barómetros distaba de ser perfecto, y consagró parte de su tiempo a introducir mejoras en ellos. Gay-Lussac se preguntaba cómo cambiaría la composición de’la atmósfera con la distancia a la Tierra. ¿Cómo serían afectadas  las  temperaturas?   ¿Cómo   se  comportaría los imanes?.

Tales preguntas lo indujeron a hacer dos ascensiones en globo, para investigar estos problemas. La segunda de estas ascensiones la realizó solo. Junto con Humboldt, analizó una muestra de aire bajada desde 7.500 metros. Gay-Lussac y Humboldt, conjuntamente, descubrieron que dos volúmenes de hidrógeno se combinan con uno de oxígeno para formar agua.

Este resultado hizo que Gay-Lussac se preguntase si otros gases reaccionarían de un modo análogo. En 1808 había reunido suficiente evidencia para demostrar que efectivamente era así. Los gases se combinaban en relaciones de volúmenes sencillas; si los productos de reacción eran gases, sus volúmenes también se encontraban en una relación sencilla con los de los productos reaccionantes.

Un centímetro cúbico de nitrógeno se combinaría exactamente con 3 cm3 de hidrógeno para formar 2 cm3 de gas de amoníaco. Gay-Lussac anunció su ley en 1808. En 1809 fue nombrado profesor de química de la Escuela Politécnica de París (donde él había sido estudiante) y, además, profesor de química del Jardín Botánico.

Desde entonces realizó la mayor parte de sus trabajos de investigación en el campo de la química. Estos trabajos cubrieron muchísimos temas. Probablemente, su contribución más importante fue la que hizo a la industria. Los óxidos de nitrógeno se usan como catalizadores en la fabricación de ácido sulfúrico por el procedimiento de la cámara de plomo. Estos óxidos aceleran la reacción de conversión del bióxido de azufre en trióxido de azufre, el cual se disuelve en agua formando ácido sulfúrico.

Los óxidos de nitrógeno se pueden usar de nuevo, pero en aquel entonces no existía ningún método efectivo para recuperarlos. La primera torre de Gay-Lussac, para su recuperación, fue empleada en 1842. Aún hoy se usan torres análogas para la misma finalidad.

Gay Lussac murió en Paris, el 9 de Mayo de 1850, a la edad de 72 años.

Fuente Consultada:
150 Grandes Científicos Norman J. Bridge (TEXIDO)
Enciclopedia TECNIRAMA De la Ciencia y la Tecnología N°44 Gay Lussac

Tabla de Radiaciones Electromagneticas Ejemplos

Todas las emisión de radiaciones están presentes en los aspectos más variados de nuestra realidad, desde la función clorofílica de las plantas hasta las comunicaciones intercontinentales. Tal variedad de fenómenos determina, con frecuencia, una confusión sobre las particularidades y características de cada tipo de radiación; porque, aun cuando en conjunto sean todas emisiones de ondas sinusoidales, sus frecuencias y longitudes de onda peculiares les permiten desarrollar efectos  determinados.   Así,  los  rayos X,  que tienen  frecuencias muy altas pero cortas longitudes de onda, pueden atravesar perfectamente los tejidos animales y otros diversos materiales.

La radiación electromagnética se propaga en forma de ondas creadas por la oscilación en el espacio de campos eléctricos y magnéticos perpendiculares entre sí y a la dirección de propagación. Todas las ondas electromagnéticas viajan a la misma velocidad en el vacío, la velocidad de la luz c (300.000 Km/seg.), pero los distintos tipos de ondas tienen diferente longitud de onda y diferente frecuencia.

Estas dos magnitudes están relacionadas por la ecuación λ.f=c, de modo que a cada frecuencia le corresponde una única longitud de onda. El espectro completo de radiaciones electromagnéticas comprende una amplia variedad en longitudes de onda, desde las enormes ondas de baja frecuencia tan grandes como la Tierra, hasta los penetrantes rayos gamma, con longitudes más pequeñas que el núcleo de los átomos. Estos distintos tipos de radiación, si bien son producidos y detectados de maneras que les son propias, responden todos a la misma descripción ondulatoria de campos electromagnéticos.

Según la teoría electromagnética, las partículas cargadas aceleradas, como los electrones en una corriente variable dentro de un cable, irradian energía en forma de ondas. Las ondas de radio, de menos de 1010 Hz y longitudes mayores que 1 cm, pueden producirse y detectarse por circuitos eléctricos capaces de producir corrientes variables.

Este tipo de ondas es el que se ha utilizado para transmitir información “sin hilos”, es decir, sin un cable que se extienda entre el transmisor y el receptor de información, desde los famosos experimentos de Hein-rich Hertz en el siglo pasado.

Al igual que la luz visible, las ondas de radio pueden ser reflejadas, refractadas y absorvidas.

En el cuadro siguiente se han reunido, por orden decreciente de frecuencias y creciente de longitudes de onda, los principales tipos de radiaciones que existen; los procesos de emisión, sus causas y medios de detección permitirán catalogar, de modo simple y rápido, las diversas clases de radiaciones, cuya serie, en conjunto, se denomina espectro electromagnético.

Es interesante observar que los receptores sensoriales del hombre sólo perciben las radiaciones de una pequeña zona del espectro (luz visible  y rayos  infrarrojos).

LA RADIACIÓN SE PRODUCE EN POR FRECUENCIA
(CICLOS/SEG.)
TIPO DE LA RADIACIÓN LONGITUD DE ONDA (METROS) PUEDE SER
DETECTADA POR
Explosión atómica Núcleo atómico en oscilación 1020 Rayos gamma lO-ia Contador Geiger
Tubo de rayos X Trayectoria espiral de un electrón interno 1018 Rayos X Pantalla de rayos X
Lámpara Trayectoria espiral de un electrón externo 1016 Rayos ultravioleta
Luz visible
Cámara fotográficaOjo
Estufa Trayectoria espiral de un electrón externo 1012
1014
Rayos infrarrojos 10-* Receptores corporales
Sol Trayectoria espiral de un electrón 1010 Micro-ondas 10-2 10» Pantalla de radar
Circuito oscilanteAntena Oscilación de la Carga En Un Conductor

106

104

Ondasde radio 102
104
TelevisiónReceptor de radio

Concepto de Calor Latente Investigación de Black Joseph

PRIMERAS INVESTIGACIONES EN CALORIMETRÍA

Una de las formas de energía más familiar para nosotros es el calor. Diariamente hacemos uso de él para calentar nuestra casa, para preparar la comida, etc. La energía calorífica es debida al movimiento de las moléculas y de los átomos. La experiencia nos enseña que la energía de un cuerpo puede transformarse en calor, siendo también posible que la energía térmica se convierta en trabajo, como sucede en los motores de explosión o en las máquinas térmicas. Por todo ello decimos que el calor es una forma de energía.

DIFERENCIA ENTRE CALOR Y TEMPERATURA: Actualmente, está muy bien determinada la diferencia entre calor y temperatura, a pesar de que algunos estudiantes puedan confundir estos dos conceptos. Calor es la energia necesaria para calentar un cuerpo y temperatura es una medida de su grado de calor. Cuanto mas energía entreguemos mas temperatura tendrá el cuerpo.

Para pensar este tema, imaginemos que debemos calentar 1 litro de agua de 10°C a 20°C, es decir , elevarla 10°C mas. Para lograrlo debemos entregar energía a esa masa de agua, por ejemplo colocarla sobre la hornalla de una cocina. Observaremos que a medida que pasa el tiempo el agua se pone mas caliente, por lo que podemos concluir que a medida que entregamos energía el agua aumenta su temperatura. Vemos que hay dos conceptos definidos por un lado la cantidad de energía o calor entregado y por otro la medida de su temperatura.

Si por ejemplo ahora tenemos que calentar 2 litros de agua de 10°C a 20°C, entonces necesitaremos el doble de energia entregada, para lograr la misma temperatura.

Para medir la energia entregada en forma de calor, se define la caloría que es la cantidad de calor necesaria para calentar de 14°C a 15 °C un gramo de agua. La unidad así definida corresponde a una cantidad de calor muy pequeña, por lo que, generalmente, en la práctica se utiliza la kilocaloría, que corresponde a 1.000 calorías.

Se usa por definción de  14 a 15°C solo como una medida de referencia, en realidad lo que
objetivamente se quiere indicar, es que el aumento sea de 1°C.

Para medir temperaturas utilizamos un termómetro con diversas escalas, pero la mas popular es grados centígrados o Celsius, creador de esta escala, que comienza a O° cuando el hielo se congela y finaliza en 100°C cuando el agua entra en ebullición.

La temperatura (la intensidad de calor) puede medirse fácilmente usando un termómetro.  Por el contrario, para la medida del calor (cantidad de energía entregada para calentar la materia) se usa la caloría.

HISTORIA: Hace unos 200 años, Joseph Black llevó a cabo una serie de experimentos muy importantes sobre la medida del calor y las relaciones entre el calor y la temperatura.

Joseph Black fisico

Demostró que el hielo en fusión y el agua hirviendo, que produce vapor, absorben grandes cantidades de calor, a pesar de que no hay cambios de temperatura. Introdujo el concepto de calor latente, con el que designó el calor necesario para producir esos cambios de estado.

grafica calor latente

Observe por ejemplo que cuando la temperatura llega a B, por mas que se sigua agregando calor, la temperatura
permanece constante hasta que no haya mas sustancia sólida. Lo mismo ocurre para que la sustancia
cambie de líquida a gaseosa.

La energía necesaria para que una sustancia cambie de estado es: Q = m. L
Donde m es la masa de la sustancia considerada y L es una propiedad característica de cada sustancia, llamada calor latente. El calor latente se mide en Joule/kg en unidades del SI.

Black también descubrió que se necesitan distintas cantidades de calor para producir las mismas elevaciones de temperatura en masas iguales de sustancias diferentes. Por ejemplo, para aumentar la temperatura del agua de 15° a 25° hace falta aplicar 1,7 veces más calor que para producir el mismo cambio de temperatura en una masa igual de alcohol.

Para explicar esta variación entre las diferentes sustancias, Black introdujo la idea de calor específico. Al realizar este trabajo, sentó las bases de la medida del calor —la calorimetría—, que sigue teniendo vigencia aún. Durante los 100 años anteriores, o más, los avances de la química habían estado obstaculizados por la teoría del flogisto. Sin embargo, como Black no aceptaba las teorías que no estuviesen apoyadas por pruebas experimentales, hizo varias aportaciones valiosas a la ciencia química.

calor latente

Black definió el “calor latente” como la cantidad de calor para cambiar de estado una sustancia

Hasta mediados del siglo XVIII, se sabía muy poco acerca de los gases y, de hecho, muchas personas aseguraban que sólo existía un gas (el aire). Un siglo antes (en 1640, para precisar más), van Helmont había descubierto el gas que hoy llamamos anhídrido carbónico; pero, a causa del incremento de la teoría del flogisto, no se llegó a comprender la importancia de este hallazgo.

Black redescubrió el anhídrido carbónico en 1754, haciendo experimentos con dos álcalis débiles: los carbonatas de magnesio y de calcio. Comprobó que cuando estas sustancias se calientan, cada una de ellas produce un álcali más fuerte, liberando, al mismo tiempo, aire fijo (o sea, el anhídrido carbónico). El peso del álcali fuerte es menor que el del álcali débil del que procede.

Joseph Black nació en 1728, en Burdeos (Francia), de padres que descendían de escoceses. Después de pasar seis años en la escuela en Belfast, en 1746, ingresó a la Universidad de Glasgow, para estudiar química y medicina. En 1756, llegó a ser profesor de anatomía y de química en Glasgow.

Al cabo de 10 años pasó a la cátedra de medicina y química de la Universidad de Edimburgo. Black era muy popular entre los estudiantes porque preparaba concienzudamente los cursos y sus clases estaban ilustradas con muchos experimentos.

Al mismo tiempo que hacía notables aportaciones a la química y a la física, encontró tiempo suficiente para ejercer la medicina. Murió apaciblemente, todavía ocupando su cátedra, a la edad de 71 años.

Calor especifico

También definió el calor especifico, para tener en cuenta las diferentes cantidades de calor necesarias para producir un mismo aumento de temperatura en masas iguales de distintas sustancias.

No todos los materiales cambian su temperatura con la misma facilidad, ya que las partículas que los forman y las uniones entre ellas son diferentes. El calor específico Informa sobre la mayor o menor facilidad de las sustancias para aumentar su temperatura. El calor específico de una sustancia, ce, es la cantidad de calor necesaria para elevar un grado la temperatura de un kilogramo de dicha sustancia.

Algunos valores de calor específico expresado en: (Joule/Kg. °K)

Agua    4.180
Alcohol etílico    2.400
Hielo    2.090
Vapor de agua    1.920
Aire    1.000
Aceite    1.670
Aluminio    878
Vidrio    812
Arena    800
Hierro    460
Cobre    375
Mercurio    140
Plomo    125

Fuente Consultada:
Enciclopedia TECNIRAMA de la Ciencia y la Tecnología Fasc. N°112 Sabio Ilustre Joseph Black
Enciclopedia del Estudiante Tomo N°7 Física y Química

El Sistema Solar Para Niños Datos Fáciles y Simples Para Chicos

PARA NIÑOS: INFORMACIÓN SENCILLA Y CURIOSA DEL SISTEMA SOLAR

sistema solar para niños

Se Utiliza Tecnología Flash, Puede No Verse en Celulares

Todos los días escuchamos noticias sobre viajes en al espacio, naves que estudian nuestro sistema solar y telescopios que flotan en el medio de “la nada”, pero muy pocos tienen noción exacta de lo que eso significa. Es para nosotros muy natural pensar que nuestro Sol es el centro, y que existe una fuerza de atracción sobre los nueve planetas que los mantiene girando alrededor del mismo desde hace millones de años.

Pero la totalidad de nuestro sistema solar,  ocupa sólo una pequeña parte en la vastedad del espacio; es, en realidad, nada más que una mínima porción de las miles de millones de estrellas que forman lo que se denomina la Galaxia, un poderoso universo de estrellas, que parecen estar ordenadas en una espiral gigantesca. Y, nuestro Sol, que no es de ninguna manera el cuerpo celeste más grande de ella, está situado junto con su cortejo de planetas, incluyendo nuestra propia Tierra, hacia fuera de la espiral, como la figura de abajo.

galaxia via lactea

Su posición no es fija, pues todo el Sistema Solar también se mueve, de tal manera que si pudiéramos observar el Sol desde una nave espacial muy lejana, observaríamos  un fenómeno muy interesante. Como nuestra Tierra da una vuelta completa alrededor del Sol y el Sol mismo también está en movimiento, la Tierra sigue en realidad un camino en forma de espiral. Al mismo tiempo, la Luna da vueltas alrededor de la Tierra, de manera que también se desplaza en forma de espiral alrededor de otra espiral.

Cuando hablamos de ir al espacio, estamos refiriéndonos, en realidad, al hecho de tratar de descubrir algo más sobre nuestro Sistema Solar. Ya se ha dicho suficientemente que éste no es más que un minúsculo fragmento del inconmensurable universo. Tiene nueve planetas, aunque Plutón es tan pequeño que muchos astrónomos no lo tienen en cuenta como un planeta, incluyendo la Tierra; las respectivas medidas se muestran comparativamente en la animación superior (pasando tu mouse sobre cada planeta).

Si pudiéramos dar 40 vueltas alrededor del ecuador, viajaríamos aproximadamente 1.800.000 km.; pero la distancia desde Plutón al Sol no es de 40 veces la vuelta a nuestro mundo, sino de aproximadamente 150.000 veces. Si vastas son estas distancias, aún son cortas comparadas con la distancia a las “estrellas”, como se denomina a los cuerpos celestes que están fuera de nuestro Sistema Solar.

PLANETAS: Los planetas, incluyendo la Tierra, se mueven describiendo aproximadamente elipses; éstas son circunferencias levemente alargadas y, en lugar de tener un centro, tienen dos puntos llamados “focos”; el Sol está situado en un foco y no hay nada especial en el otro.

Los planetas no se mueven con velocidad fija; al aproximarse al Sol, apresuran su marcha y cuando se alejan, la aminoran. Cuanto más lejos está un planeta del Sol, más grande es su trayectoria elíptica, más lentamente se mueve y más prolongado es su año, o sea el tiempo que tarda en dar una vuelta alrededor del Sol. Estas leyes hacen imposible el cálculo muy anticipado de las posiciones y movimientos de los planetas.

Partiendo del Sol, el orden de su sistema planetario es el siguiente: Mercurio, Venus, Tierra, Marte, un anillo de planetas menores llamados planetoides o asteroides, Júpiter, Saturno, Urano, Neptuno y Plutón. Alrededor de todos ellos, excepto Mercurio, Venus y quizás Plutón, se mueven satélites o lunas. La mayoría de los cometas también pertenecen al Sistema Solar, giran alrededor del Sol, describiendo amplias elipses alargadas e interceptan el paso de los planetas. Sus movimientos y el de los satélites también se adaptan a las leyes de Kepler.

 Una Imagen Grande del Gran Sistema Solar

DISTANCIAS EN EL UNIVERSO:
La Velocidad de la Luz, y el Año-Luz

Es imposible para la mente humana poder entender o imaginar lo enorme que resulta ser el universo, en donde cualquier unidad de medida utilizada diariamente como el kilómetro no alcanza para poder expresar en números las distancias. Para salvar este inconveniente los astrónomos utilizan una medida conocida como año-luz, y que significa o es igual a la distancia que recorre la luz en un año.

La luz viaja a 300.000 Km/seg., para que tengas noción de cuánto es esa velocidad,  podemos decir que dá la vuelta a nuestro planeta 8 veces en 1 segundo, mientras que a cualquier avión por más veloz que sea,  demorá varias horas en dar solo una vuelta.

Para determinar cuánto vales un año-luz, se debe calclar cuántos segundo tiene un año y multiplicar ese tiempo por los 300.000 Km. que recorre la luz por segundo.

365 dias x 24 horas x 60 minutos x 60 segundo=31.536.000 segundos.

31.536.000 seg. por 300.000 Km. = 9.460.000.000.000 Km.

Un cohete a esa velocidad podría llegar a Plutón , el planeta mas lejano del sistema solar en solo 12 o 13 horas, pero a la humanidad llevó mas de 30 años alcanzar esos bordes del sistema, con las naves Voyager I y Voyager II.

UN DIARIO DE LA ÉPOCA:
LA NACIÓN – Domingo 23, agosto 1981
VOYAGER II, CERCA DE SATURNO

PASADENA, 22 (AP).- La nave espacial Voyager II comienza un crucero por las vecindades de Saturno, gigantesco mundo de arremolinadas nubes, rodeado por centellantes anillos, que gira acompañado de varias lunas.

El navío, que se desplaza a casi mil seiscientos millones de kilómetros de la Tierra, en un viaje que comenzó hace cuatro años, sigue la ruta prevista y “se comportaba muy bien”, dijo Esker Davis, a cargo del proyecto, en una conferencia de prensa en el laboratorio que controla la misión.

“Esperamos obtener una visión muv clara de Saturno durante estos exDerimentos”, confió el eminente científico Edward Stone. La nave espacial sigue la ruta de la aeronave gemela Voyager I, que en noviembre asombró a los científicos con sus fotos del planeta de los anillos.

El plan de vuelo del Voyager II fue ajustado a fin de obtener una imagen más cercana de los misterios del planeta, especialmente de su aparentemente indefinida colección de delgados anillos —dos de los cuales parecen estar entrelazados— que conforman la serie de los siete anillos mayores.

Cuando el Voyager II cruce los cielos de Saturno, el martes por la noche, se acercará al planeta 24 000 kilómetros más que su predecesor Voyager I.

El primer encuentro cercano con el planeta tuvo lugar hoy cuando las once cámaras y demás instrumentos de la nave examinaron a Japetus, la luna de dos tonos, a una distancia de casi 900 000 kilómetros.

La nave pasará cerca de otras cuatro lunas en su camino hacia el planeta, dejará atrás otras dos y pasará cerca de la novena luna, Febe, el 4 de setiembre.

Se cree que el planeta tiene por lo menos 17 lunas.

Después de pasar por Saturno, el Voyager II seguirá hacia el ansiado encuentro con Urano, en enero de 1986, y más tarde, en 1989, con Neptuno.

Algunas Distancias:

Distancia de la Tierra a la Luna: 384.000 km.

De la Tierra al Sol: 148,8 millones de Km.

Del Sol a la estrella más próxima, la Alfa Centauri: 4,2 años luz

Del Sol al centro de la Galaxia Vía Láctea: 25.000-30.000 años luz

Diámetro de la Galaxia Vía Láctea: 100.000 años luz

De las galaxias más cercanas a la Galaxia Vía Láctea:

De la Galaxia Vía Láctea a Maffei I (la galaxia más lejana del Grupo Local): 3,3 millones de años luz

Diámetro de Maffei: 100.000 años luz

Pequeña Nube de Magallanes: 196.000 años luz

Gran Nube de Magallanes: 210.000 años luz

Galaxias exteriores:

Galaxia Andrómeda: 2,2 millones de años luz

Galaxia Vórtice: 37 millones de años luz

Galaxia Carretel:500 millones de años luz

Galaxias más lejanas identificadas: Más de 10.000 millones de años luz

Objetos más lejanos visibles (galaxias, quásares): 15.000 millones a 20.000 millones de años luz

Diámetro estimado del universo: 1,5 millardos de años luz

CURIOSIDADES DEL SISTEMA SOLAR:

Desde la Luna, la Tierra presenta una superficie 14 veces mayor que la de nuestro satélite en el cielo celeste.

el sistema solar para niños: planeta tierra

El planeta Neptuno gravita tan lejos del Sol que, desde el año en que fue descubierto (1846), aún no ha dado una vuelta completa en torno del mismo.

neptuno, para niños

Vista desde la Luna, la Tierra también presenta un ciclo de fases. Pero estas fases son exactamente contrarias a las que ofrece la Luna en el mismo instante al observador terrestre. Así, cuando aquí tenemos Luna nueva, en la Luna se tiene Tierra llena; al cuarto creciente de la Luna, corresponde el cuarto menguante de la Tierra, etc.

Febe. Éste es el nombre de Artemisa, como diosa de la Luna, en la mitología griega. También es el nombre del satélite más lejano de los que tiene Saturno.

Ganímedes, el tercer satélite de Júpiter, es, hasta ahora, el mayor de todos los satélites del sistema solar.

Gamínides satelite de jupiter

En la Luna, basta con dar unos pasos entre el suelo expuesto al Sol y uno a la sombra, para pasar de un terreno tórrido a uno gélido como el suelo siberiano.

Un planeta enigmático: la órbita del planeta Plutón penetra en el interior de la órbita de Neptuno.

Pluton

Dos planetas caprichosos: Venus y Urano. Ambos tienen rotación retrógrada; es decir, rotan en sentido opuesto a los demás planetas.

Los astrónomos calculan que hay dos millones de cometas en el sistema solar.

cometa en el sistema solar

Las rocas lunares traídas por los astronautas del “programa Apolo” son extremadamente ricas en titanio. Los terrícolas usamos el titanio para la construcción de aviones, cohetes y piezas de proyectiles, por ser un metal liviano, fuerte y resistente a la corrosión.

Alrededor de 24 000 000 de meteoritos penetran en el interior de nuestra atmósfera en un solo día. La mayor parte de ellos se consumen rápidamente por combustión. Los más brillantes desaparecen a una altura de 64 kilómetros. Únicamente unos cuantos centenares de ellos llegan a golpear la superficie terrestre.

El mayor meteorito encontrado sobre la Tierra fue el que cayó en Hoba West (África del Sudoeste); pesaba 60 toneladas.

gran meteorito

Una lluvia de estrellas, o lluvia meteórica, está compuesta por millares de meteoritos.

lluvia de meteoritos

LOS NOMBRES DE  LOS PLANETAS EN LA MITOLOGÍA
Mercurio: Mercurio era el protector de pies alados de los mercaderes y viajeros, así como también el mensajero de Júpiter.

Venus: Venus, la diosa romana del amor, era proclive a ataques de furia y celos. Cierta vez hizo que las mujeres de una isla apestaran tanto que sus esposos las abandonaron.

Marte: Marte, el dios romano de la guerra y la agricultura, fue el progenitor de Rómulo y Remo, los míticos fundadores de Roma.

Júpiter: Júpiter era el pródigo rey romano de dioses y diosas. Parece tener sentido que el planeta más grande reciba su nombre.

Saturno: Saturno era un titán (los titanes precedieron a los dioses) destronado por Júpiter. Algunas veces se lo asociaba al submundo y, hacia fines de año, en su festival se invertía el orden social: los esclavos ordenaban a sus patrones y los súbditos eran servidos.

Urano: Urano era un dios antiguo, aun para los romanos. Se le asigna el aporte de la civilización y la cultura al mundo, y era un gran astrónomo.

Neptuno: El dios romano Neptuno gobernaba el mundo submarino, las profundidades de lagos, lagunas y estanques. Era famoso por secar los ríos cuando se enfurecía. Era uno de los dioses más poderosos y el que más hijos tuvo.

Plutón: También conocido como Hades, Plutón era el siniestro dios de la muerte y el submundo. El nombre Hades significaba “el invisible”, y rara vez se pronunciaba en voz alta. Solían referirse a él como Plutón, o Pluto, que significaba el rico. Plutón parece el nombre adecuado para este amenazador y poco comprendido planeta.

¿Cómo comenzó el universo?
La idea más conocida sobre la creación del universo es la llamada teoría del big bang. Se basa en las ideas de muchos científicos, especialmente Edwin Hubble, un famoso astrónomo del siglo XX. La teoría del big bang alega que el universo fue creado por un surgimiento masivo de energía y materia hace unos 10 a 20 millardos de años. El big bang formó gases y partículas celestes… y todo lo que existe. Esta teoría también afirma que el universo continúa expandiéndose, que todos los cuerpos celestes -galaxias, estrellas y planetas, para nombrar sólo algunos- están constantemente alejándose unos de otros.

CÓMO INFLAR EL UNIVERSO: Hagamos la siguiente prueba para visualizar el universo como lo ven los astrónomos. Tomemos un globo desinflado y dibujémosle pequeñas estrellas con un marcador. Las estrellas representan las galaxias. Identifiquemos a alguna como la Vía Láctea, nuestra galaxia. Ahora, inflemos el globo. El globo que toma mayor tamaño es similar al universo en expansión. Podemos ver cómo las estrellas se separan, de una manera parecida a cómo se distancian las galaxias. El aire dentro del globo representa el pasado; la superficie del globo representa el presente y el aire alrededor del globo representa el futuro.

¿De qué están hechas las estrellas?
Las estrellas están hechas principalmente de hidrógeno y helio, junto con pequeñas cantidades de calcio, hierro y óxido de titanio. Las proporciones de estos elementos difieren de estrella en estrella. Los astrónomos pueden determinar los elementos que constituyen una estrella, y sus proporciones, estudiando las diferentes longitudes de onda de la radiación electromagnética de una estrella.

¿Cuánto brillo tienen las estrellas?
Existen tres formas de considerar el brillo de una estrella. Podemos hablar de la magnitud aparente de una estrella, o del brillo que parece tener al mirarla. Sabemos, no obstante, que las estrellas más cercanas a la Tierra parecen más brillantes que las que se encuentran alejadas, a pesar de que no sean en realidad más brillantes. Bien, los astrónomos también hablan de la magnitud absoluta de las estrellas, o sea del brillo de una estrella si el observador se encontrara a 10 parsecs de distancia. La tercera manera de medir el brillo de una estrella se llama luminosidad. La luminosidad es una medida de la cantidad de energía que emite una estrella en comparación con nuestro Sol.

EL BRILLO DE LAS ESTRELLAS: Las estrellas parecen más tenues o brillantes según su tamaño y distancia de la Tierra. Comprobemos el efecto de estos factores probando este experimento.

Equipo
linterna
un trozo de papel
un trozo de lámina de aluminio
1. Recortemos un agujero del tamaño de una pequeña moneda en la lámina de aluminio. Conservemos la lámina con el agujero para usarla más adelante.
2. Pongamos el papel sobre el piso de un cuarto oscuro.
3. Alumbremos con la linterna sobre el papel desde una distancia de unos 62 cm (2 pies). Observemos el brillo de la luz sobre el papel.
4. Alumbremos con la linterna sobre el mismo papel a una distancia de 31 cm (12 pulgadas). Observemos que el brillo es mayor. 5. Cubramos la linterna con la lámina de modo que la luz atraviese el agujero. Alumbremos el papel desde la altura de 31 cm (12 pulgadas). La luz será aún más brillante.
Hemos probado los efectos de la distancia y el tamaño en el brillo de la luz. Quizá podamos ahora comprender más claramente la razón por la cual los astrónomos usan dos medidas diferentes para registrar el brillo de una estrella: las magnitudes aparente y absoluta. La magnitud aparente es el brillo que parece tener una estrella vista desde la Tierra. La magnitud absoluta es el brillo de las estrellas si todas estuvieran a la misma distancia (10 parsecs) de la Tierra.

¿De qué está hecho el Sol?
Como otras estrellas, el Sol está compuesto principalmente de gases. Alrededor del 70 por ciento del gas es hidrógeno y el 25 por ciento es helio. Igual que las demás estrellas, el hidrógeno del Sol produce energía convirtiéndose en helio a través del proceso de fusión termonuclear. Vemos la energía del Sol en forma de luz solar y la sentimos como calor.
medio comparado con otra.

¿Qué tamaño tiene el Sol?
El Sol mide 1.392.000 kilómetros (865.000 millas) de diámetro. Necesitaríamos más de 1,3 millones de planetas del tamaño de la Tierra para llenar el Sol. En una balanza, el Sol pesaría casi 333.000 veces más que la Tierra; su masa es de 2 x 10 (potencia 27) toneladas.

¿El sol tiene diferentes capas, como la Tierra?
En el centro del Sol está su núcleo, donde el hidrógeno se transforma en helio, creando energía. Se calcula que el núcleo tiene unos 450.000 kilómetros (280.000 millas) de diámetro. La capa que le sigue al núcleo hacia afuera es la capa de radiación, de más de 278.000 kilómetros (167.000 millas) de espesor; luego la capa de convección, de alrededor de 200.000 kilómetros (125.000 millas) de profundidad; y luego la fotosfera, de 300-500 kilómetros (190 millas) de espesor, que es la que vemos como superficie del Sol. La atmosfera solar está formada por la cromosfera, cerca de la superficie y corona exterior.

¿Qué temperatura tiene el Sol?
La temperatura del núcleo puede registrar hasta 15 millones de °K (15 millones de °C/27 millones de °F), que es 1,5 veces más calor que el emitido en la explosión de una bomba nuclear. Si bien la superficie es mucho más fría ,apenas 5.800°K (6.000°C/10.000°F) es aun unas veinte veces más caliente que la temperatura a la que se quema el papel.

¡NO SE DEBE MIRAR EL SOL DIRECTAMENTE!
Es tan tentador mirar el Sol durante un eclipse, especialmente cuando todo el mundo nos dice que no lo hagamos. El hecho es que hacerlo puede dañarnos los ojos. A continuación proponemos una manera alternativa para mirar un eclipse sin que se nos lastimen los ojos.
Equipo
una caja de cartón con tapa
un alfiler
tijeras
1. Pinchemos un agujero en la parte superior de la caja con el alfiler. Hagamos un agujero por donde mirar en uno de los extremos de la caja.
2. Salgamos al exterior. Levantemos la caja a la altura de nuestros ojos y movámosla hasta que el Sol entre directamente a través del agujero hecho con el alfiler. La imagen del Sol debería aparecer en la parte inferior de la caja.
3. Durante el eclipse, observemos la imagen del Sol mientras la Luna cruza por delante de la estrella.Veremos el eclipse en el momento en que se produce.

¿De dónde salió el satélite de la Tierra?
Existen muchas teorías acerca de cómo llegó a tener un satélite la Tierra. La más popular afirma que hubo un inmenso asteroide -quizás el mismo que se piensa que inclinó el eje de la Tierra- que chocó contra nuestro planeta y arrojó una masa de desechos que quedaron girando dispersos en forma de anillo alrededor del planeta. Con el tiempo, los desechos se aglutinaron formando la Luna. Al principio la Luna estaba mucho más cerca de la Tierra, pero gradualmente llegó a la órbita actual.

EL HOMBRE DE LA LUNA
Casi todos hemos visto al hombre de la Luna. Su rostro luminoso y benigno brilla sobre la Tierra aproximadamente en la época de la luna llena. Pero no está allí en la realidad. Esta demostración les mostrará lo que sucede.
Equipo
aproximadamente siete fichas de dominó, o cajas de fósforos, u objetos pequeños cualesquiera que se puedan parar sobre una mesa una linterna

  1. Pongamos las fichas de dominó sobre la mesa formando una cara: dos ojos, una nariz y una boca.
  2. Oscurezcamos el cuarto. Alumbremos las fichas con la linterna desde arriba y en dirección oblicua. Observa cómo las sombras sobre la mesa forman un rostro espectral.

La superficie de la Luna tiene montañas, abismos y cráteres, que arrojan sombras cuando les da la luz del Sol. Parecen dibujar una cara porque las personas tendemos a reconocer objetos familiares en las sombras comunes y corrientes, como cuando vemos barcos, monstruos y castillos mirando las nubes.

Ver una Imagen Grande Del Sistema Solar

El Origen del Planeta Tierra

Fuente Consultada:
El espacio asombroso Ann-Jeanette Campbell
Dimension 2007 Para 7° Grado Edit. Kapelusz

LA REVOLUCIÓN CIENTÍFICA Primeras Sociedades Cientificas Edad Moderna

REVOLUCIÓN CIENTÍFICA DEL MUNDO MODERNO:

La Revolución Científica representa un punto crucial en la moderna civilización occidental; con ella, Occidente echó por tierra visión medieval y ptolomeico-aristotélica del mundo y llegó a  una nueva visión del universo: el Sol en el centro, los planetas  como cuerpos materiales girando alrededor del astro en orbitas elípticas y un mundo infinito, más que finito.

Con los cambios en la visión del “cielo” vinieron los cambios en la visión de la Tierra”. La obra de Bacon y Descartes dejó a los europeos con la separación de mente y materia y la creencia de que, valiéndose de la razón, podrían comprender y dominar el mundo de la naturaleza. El desarrollo de un método basado en la ciencia favoreció la obra de los científicos, al tiempo que la creación de edades y publicaciones especializadas difundía sus resultados.

Si bien las iglesias tradicionales se oponían de manera obstinada a las nuevas ideas y algunos intelectuales indicaban ciertos errores :s, nada pudo detener la sustitución de los modos tradicionales de pensar con nuevas formas de pensamiento que generaron un rompimiento más decisivo con el pasado que el representado por el colapso de la unidad cristiana con la Reforma.

La Revolución Científica obligó a los europeos a cambiar su visión de ellos mismos; al principio, algunos se consternaron e incluso se aterrorizaron por las implicaciones. Antiguamente, los humanos en la Tierra habían estado en el centro del universo, ahora el mundo era un minúsculo planeta que giraba alrededor de  un Sol que, en sí mismo, no era sino una mancha en el  infinito universo. La mayoría de la gente se mantuvo optimista a pesar del aparente golpe a la dignidad humana.

Después de todo,  Newton no había demostrado que el universo era una enorme maquinaria controlada por leyes naturales? Newton había descubierto una de éstas: la Ley de la gravitación universal. ¿No podrían descubrirse más leyes? ¿No habría leyes naturales que explicaran cada aspecto del esfuerzo humano, que pudieran encontrarse por medio del nuevo método científico? Así, la Revolución Científica nos conduce lógicamente a la edad de la Ilustración del siglo XVIII.

La auténtica revolución del mundo moderno culminó en los siglo  XVII y XVIII con una renovación completa del universo del conocimiento. Hasta el s. XVI, la ciencia había permanecido íntimamente ligada a la a la filosofía.

Las investigaciones que se habían hecho durante el Renacimiento sobre todo en el terreno de la medicina y en el de la astronomía, habían sido violentamente combatidas por la Iglesia, la obra de un Leonardo da Vinci, que intentaba reunir en un conjunto coherente todo el saber de su tiempo, quedó como una experiencia aislada; las escisiones religiosas del s.XVI no favorecieron prácticamente en nada la expansión de la ciencia.

En los albores del s. XVII empiezan a manifestarse los primeros signos del extraordinario florecimiento de investigaciones y descubrimientos que habrán de fundar la ciencia y la técnica de las que ha nacido el mundo contemporáneo. Este auge del conocimiento es el fruto del enorme trabajo que se lleva a cabo primero en Italia. y luego en el resto de Europa, para trazar lo que podría llamarse el inventario cultural de la humanidad; la resurrección de las antigüedades griegas, latinas y hebreas, tarea emprendida por los humanistas, es la fuente del impulso intelectual de la era clásica que tendrán a su disposición los herederos de la historia mediterránea.  

El gran movimiento intelectual que comienza hacia el año 1620 tiene por artífices a Galileo. Kepler, Descartes, Leibniz y Newton. Profesores de universidades, provocan conflictos teológicos, ya que la iglesia, que había condenado a Galileo, no integra el progreso científico en su visión del mundo. Discípula de Aristóteles, no puede aceptar un mundo en movimiento, regido por leyes matemáticas. Y, sin embargo, los sabios del s. XVIII, con instrumentos de óptica y de cálculo perfeccionados, demuestran que es el sol el que está en el centro del universo y que la sangre no es un liquido estancado. Sin embargo, para la mayoría de los creyentes ponen la religión ,en entredicho.

¿Qué papel desempeñan Los libros? El desarrollo de la imprenta a lo largo de todo el s. XVI desempeñará un papel determinante en la evolución de las ideas. La difusión de lo escrito estuvo en un principio vinculada a los conflictos religiosos: protestantes y católicos multiplican los libelos. Indirectamente, las ciencias se aprovecharán de este considerable interés concedido a la imprenta. El mercado del libro empieza a organizarse.

¿Se adelanta la técnica a la ciencia? Al aventurarse a conquistar el mundo, Europa se ve obligada a adquirir los instrumentos necesario para esa conquista. Los progresos empíricos de la navegación habían ayudado a los navegantes portugueses o españoles a explorar los océanos; pero cuando los viajes a Asia y America se multiplican, es necesario hacerse con técnicas adaptadas a las nuevas necesidades de la humanidad. Son los comerciantes, y en consecuencia los artesanos y los industriales, quienes reclaman el perfeccionamiento de nuevos procedimientos.

¿Cuál es el punto de referencia de la ciencia? La ciencia, al alejarse de su empirismo tradicional, se lanza a la búsqueda de sus fundamentos conceptuales y de las leyes abstractas que rigen la existencia del cosmos. Es el cielo mismo el que suministra el modelo básico. La armonía oculta que regula las relaciones de los astros con la tierra indica que existe una organización cuyas reglas hay .que desentrañar.

¿Cómo nacen las ciencias de la vida? El prodigioso desarrollo de las matemáticas durante el s. XVII vuelve a hacer que los hombres se pregunten sobre el mundo concreto que les ha tocado vivir. Abre, por tanto, una nueva visión de las ciencias naturales y de las humanas. La Zoología, la Botánica y la Geología serán el centro de las preocupaciones en los albores del s. XVIII: el problema está en descubrir la organización general de las especies vivientes y en estudiar las mutaciones de nuestro hábitat terrestre. Esta intensa curiosidad tendrá como consecuencia la expansión de las investigaciones sobre el mundo animal y vegetal, reemprendidas poco después por los enciclopedistas.

¿Existe una ciencia de la sociedad? A imagen y semejanza de lo que revelan la armonía del cielo y la organización de la materia, la existencia colectiva de la especie humana ha de tener también sus reglas; la anarquía que tan a menudo reina entre los hombres, y que engendra guerras y revoluciones, tiene su origen en nuestra ignorancia acerca del funcionamiento del juego social. Esto es lo que piensan a comienzos del s. XVIII un gran número de filósofos. Así nacen, siguiendo los pasos de las matemáticas y las ciencias naturales, la sociología y la antropología. Y es esta esperanza de arrojar alguna luz sobre los escondidos resortes de la historia humana lo que da al s. XVIII su impulso y su energía creadora.

¿Cuál fue la aportación del microscopio? En esta revolución del pensamiento, la astronomía ocupa un lugar predominante, y el telescopio se perfecciona sin cesar. Pero el desarrollo de la lente astronómica acaba desembocando en la utilización del microscopio, que permite confirmar numerosas hipótesis. Para empezar, están los trabajos de William Harvey sobre la circulación de la sangre: sus sucesores descubrieron la existencia de los capilares. Al final de su trayecto, la sangre arterial pasa a las venas para ser purificada en los pulmones, que filtran el gas carbónico. Gracias al microscopio, Malpighi puede observar los lóbulos hepáticos y, sobre todo, una parte del funcionamiento del riñón. El holandés Lewenhoeck descubre en 1677 los espermatozoides y en 1688 los glóbulos rojos, y muestra asimismo la estriación de las fibras musculares. Después de haber trabajado sobre lo infinitamente grande, los hombres se centran en lo infinitamente pequeño.

¿Cuándo nacen las sociedades científicas? En el s. XVII existe un verdadero medio científico. Las obras circulan de un país a otro, escritas casi siempre en latín, que hace de lengua internacional. Este movimiento se ve favorecido por el desarrollo de las imprentas y las librerías, y también por hombres como el padre Mersenne, que manda hacer traducciones francesas de libros científicos. Crea en Paris una especie de academia que será el anteceder e de la Academia de ciencias organizada por Colbert en 1666.

Los miembros de esta última reciben becas, pero deben estudiar con prioridad las cuestiones impuestas por el Estado. A su fundación sucederá la de un observatorio astronómico. Pero es en Italia donde nacen las primeras academias: en Roma primero Y sobre todo en Florencia. La Academia del Cimente fue creada en 1657 bajo el patrocinio de los Médicis, y su primer designio fue el de coordinar las experiencias sobre el vacío. Las academias españolas nacieron en el s. XVIII bajo la influencia francesa.

Descubrimientos del Mundo Moderno:

Los descubrimientos clave en los campos de la ciencia, las matemáticas y la filosofía contribuyeron al rápido desarrollo de la sociedad europea de la época. Entre los inventos científicos más destacados figuraba la construcción del microscopio durante el siglo XVI. Si bien se desconoce quién fue su inventor, su perfeccionamiento suele atribuirse al holandés Antón van Leeuwenhoek.

En 1643, Torricelli inventó el barómetro, usado para medir la presión atmosférica. La bomba de vacío, construida por vez primera por Otto von Guericke en 1645, fue un invento que posteriormente demostró ser vital para la innovación industrial y la invención del motor. El primer motor a vapor lo patentó en 1698 Thomas Savery, a quien habían encargado idear un dispositivo que extrajera el agua de los tiros de las minas mediante bombeo.

En 1714, Daniel Gabriel Fahrenheit creó el primer termómetro de mercurio de precisión y, en 1731, John Hadley inventó el sextante, que mejoró sobremanera la navegación náutica. Rene Descartes vivió entre 1596 y 1650 y realizó contribuciones esenciales a los métodos matemáticos.

Descartes, cuyos métodos estaban estrechamente ligados al pensamiento filosófico, suele considerarse el padre de la matemática moderna. Isaac Newton (1642-1727), filósofo y matemático inglés, fue autor de tres descubrimientos cruciales: el método de cálculo, la composición de la luz y, el más famoso de todos ellos, la ley de la gravedad.

Estos y otros descubrimientos alentaron una sensación general de entendimiento del mundo y fueron el preludio de la era conocida como la Edad de la Razón o el Siglo de las Luces.

La revolución en medicina

El principal error de la medicina del siglo xvn radicaba en la aceptación de la teoría tomada por Galeno de Aristóteles y otros, según la cual las enfermedades tenían su origen en el desequilibrio entre los cuatro humores corporales: sangre, flema, bilis amarilla y bilis negra. Para Galeno, la sangre fluía hacia arriba y hacia abajo, y las venas y arterias eran independientes.

El médico suizo-alemán von Hohenheim (1493-1541) se enfrentó abiertamente a esta hipótesis despreciando cualquier otra teoría ajena. Hohenheim, que se llamaba a sí mismo “Paracelso”, rechazó la idea de los “humores corporales” y su supuesto papel en las enfermedades. En su opinión, éstas tenían lugar a escala local, en órganos específicos, y para eliminarlas había que tratar el órgano afectado con productos químicos.

Los trabajos de este “Paracelso” sobre el diagnóstico precoz y la cura de las enfermedades encontró un paralelo, en el campo de la anatomía, en los del médico y profesor belga Andreas Vesalio (1514-64). Las exhaustivas investigaciones del cuerpo humano que Vesalio llevó a cabo reafirmaron su convicción de que la anatomía de Galeno, basada en disecciones de animales, distaba mucho de la realidad. Vesalio publicó sus observaciones en De humani corporis fabrica (Sobre la estructura del cuerpo humano) en 1543.

Vesalio no se apartó, sin embargo, totalmente de la medicina de Galeno, sino que suscribió las ideas de éste sobre la circulación de la sangre. Estas ideas tuvieron vigencia hasta que, en 1628, el erudito inglés sir William Harvey (1578-1657) publicó De motu coráis et sanguinis (Sobre el movimiento del corazón y de la sangre). Harvey presentaba aquí el corazón como la dinamo central del sistema circulatorio —para Galeno era el hígado— y demostraba la conexión de venas y arterias.

El primero en describir la circulación pulmonar y su papel en la purificación de la sangre había sido, en realidad, Miguel Servet (h. 1511-1553), científico y reformista español exiliado en Francia al que Calvino acusó de herejía y condenó a morir en la hoguera. Los esfuerzos conjuntos de éstos y otros estudiosos e investigadores dieron un poderoso impulso al progreso de la medicina.

La química fue la Cenicienta de la época a pesar de que en este período se formuló la famosa ley de Robert Boyle, según la cual el volumen de un gas varía en proporción inversa a la presión ejercida sobre él. Boyle, de origen irlandés, fue también el autor de El químico escéptico, donde tira por tierra la teoría de los cuatro elementos terrestres de Aristóteles. Al negar la existencia de los elementos químicos fue, sin embargo, demasiado lejos. Fue éste un error fundamental ya que, sin el reconocimiento y la investigación de tales elementos, la revolución en el campo de la química se había hecho de todo punto imposible.

Los avances de la época de la revolución científica, aunque desiguales, no afectaron sólo al mundo de las ciencias. Los nuevos caminos en la esfera del pensamiento científico produjeron en la literatura una prosa más sencilla y clara. Ayudaron a introducir la estadística en el gobierno como medio de conocer la población y los recursos de la nación. Las nuevas teorías fomentaron el escepticismo religioso y, en 1682. llevaron al escritor francés Pierre Bayle a afirmar que la religión y la moralidad no tenían nada que ver.

Entre las distintas repercusiones y efectos, el más significativo fue, sin duda, la forma en que la nueva ciencia dividió a la sociedad en personas cultas, que se entregaron a ella con entusiasmo, e incultas, cuyas ideas sobre el mundo material y espiritual permanecieron enraizadas en el pasado medieval, lo que no dejaba de ser una ironía.

En la Edad Media, sabios y campesinos estaban unidos por la creencia en la total separación de la Tierra imperfecta y el Cielo perfecto. A finales del siglo XVII, se escindieron en dos grupos antagónicos, y la causa fue, simplemente, la nueva concepción científica de que el Cielo y la Tierra eran una misma cosa con todas sus imperfecciones, contempladas, éstas, desde su particular punto de vista.

cuadro sintesis revolucion cientifica

Fuente Consultada:
La Historia de la Humanidad de Hendrik Willem van Loon.
Revista Enciclopedia El Árbol de la Sabiduría Fasc. N°55 La Revolución Científica.

Biografia de John Nash:Una Mente Brillante

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.

 “Una mente maravillosa”, “A beautiful Mind” es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo “Senior” o “Junior” (Jr.).  Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University. Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta. Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente

y llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

“Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro”.

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  “Men of Mathematics” (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada “Juegos No-Cooperativos”. Obsérvese que el libro inicial de la teoría de juegos, “Theory of Games and Economic Behavior” de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton. En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron. En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

“.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.”

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

“Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual”.

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Las leyes del Pendulo Fisico Oscilacion Periodo Frecuencia

LAS LEYES FÍSICAS DEL PENDULO: PERÍODO Y FRECUENCIA

INTRODUCCIÓN: ¿Qué es un péndulo? Es un cuerpo cualquiera que suspendido de un punto fijo puede oscilar libremente por la acción de su propio peso, o que puede girar, también libremente, alrededor de un eje horizontal. Se lo conoce desde los tiempos anteriores a nuestra era, y la palabra castellana que se usa para nombrarlo deriva del latín que hablaban los antiguos romanos, es decir, de la voz pendulus, que significa pendiente.

El péndulo de un reloj, o el constituido por una pequeña esfera pesada suspendida por medio de un hilo, se denomina péndulo físico. Un péndulo idealizado por un puntomaterial sumamente pequeño, suspendido de un punto fijo con un hilo inextensible y sin peso, es un péndulo simple o ideal. Las leyes que rigen el movimiento del péndulo fueron descubiertas porGalileo Galilei.

Ellas expresan: a) La duración de las oscilaciones es independiente de la amplitud, siempre que éstas no pasen de unos 8o (Ley del isocronismo); b) El tiempo de oscilación no depende de la masa del péndulo (Ley de las masas), y c) Los tiempos de oscilación de dos péndulos de diferentes longitudes están relacionados entre sí como las raíces cuadradas de sus respectivas longitudes (Ley de las longitudes).

Explicación:

PÉNDULO: Llamamos péndulo a todo cuerpo que puede oscilar con respecto de un eje fijo.

Péndulo ideal, simple o matemático: Se denomina así a todo cuerpo de masa m (de pequeñas dimensiones) suspendido por medio de un hilo inextensible y sin peso. Estas dos últimas condiciones no son reales sino ideales; pero todo el estudio que realizaremos referente al péndulo, se facilita admitiendo ese supuesto .

Péndulo físico: Si en el extremo de un hilo suspendido sujetamos un cuerpo cualquiera , habremos construido un péndulo físico. Por esto, todos los péndulos que se nos presentan (columpios, péndulo de reloj, una lámpara suspendida, la plomada) son péndulos físicos.

Oscilación – Amplitud – Período y Frecuencia:

A continuación estudiaremos una serie de procesos que ocurren durante la oscilación de los péndulos y que permiten enunciar las leyes del péndulo.

Daremos previamente los siguientes conceptos:

pendulo físico

Longitud del péndulo (L) es la distancia entre el punto de suspensión y el centro de gravedad del péndulo.

Oscilación simple es la trayectoria descrita entre dos posiciones extremas (arco AB).
Oscilación completa o doble oscilación es la trayectoria realizada desde una posición extrema hasta volver a ella, pasando por la otra extrema (arco ABA). Angulo de amplitud o amplitud (alfa) es el ángulo formado por la posición de reposo (equilibrio) y una de las posiciones extremas.

P
eríodo o tiempo de oscilación doble (T) es el tiempo que emplea el péndulo en efectuar una oscilación doble.

Tiempo de oscilación simple (t) es el tiempo que emplea el péndulo en efectuar una oscilación simple.
Elongación (e). Distancia entre la posición de reposo OR y cualquier otra posición.
Máxima elongación: distancia entre la posición de reposo y la posición extrema o de máxima amplitud.
Frecuencia (f). Es el número de oscilaciones en cada unidad de tiempo.

f=numero de oscilaciones/tiempo

Relación entre frecuencia y periodo

T = período ; f = frecuencia

Supongamos un péndulo que en 1 seg. cumple 40 oscilaciones.

En consecuencia: 40 oscilaciones  se cumplen en 1 seg., por lo que 1 osc. se cumple en T=1/40 seg (periodo) .

Obsérvese que: el período es la inversa de la frecuencia.

En símbolos:                                                  T=1/f y f=1/T

Leyes del péndulo:
Ley de las masas

Suspendamos de un soporte (por ejemplo: del dintel de una puerta) tres hilos de coser de igual longitud y en sus extremos atemos sendos objetos de masas y sustancias diferentes . Por ejemplo: una piedra, un trozo de hierro y un corcho. Saquémolos del reposo simultáneamente. Verificaremos que todos tardan el mismo tiempo en cumplir las oscilaciones, es decir, que todos “van y vienen” simultáneamente. Esto nos permite enunciar la ley de las masas:

LEY DE MASAS: Las tres mas de la figura son distintas entre si, pero el periodo (T) de
oscilación es el mismo. (T1=T2=T3)

Los tiempos de oscilación de varios péndulos de igual longitud son independientes de sus masas y de su naturaleza, o también El tiempo de oscilación de un péndulo es independiente de su masa y de su naturaleza.

Ley del Isócrono: Dispongamos dos de los péndulos empleados en el experimento anterior. Separémolos de sus posiciones de equilibrio, de tal modo que los ángulos de amplitud sean distintos (pero no mayores de 6 o 7 grados).

Dejémolos libres: comienzan a oscilar, y notaremos que, también en este caso, los péndulos “van y vienen” al mismo tiempo. De esto surge la llamada Ley del isocronismo (iguales tiempos):

Para pequeños ángulos de amplitud, los tiempos de oscilación de dos péndulos de igual longitud son independientes de las amplitudes, o también: El tiempo de oscilación de un péndulo es independiente de la amplitud (o sea, las oscilaciones de pequeña amplitud son isócronas).

La comprobación de esta ley exige que los pendulos tengan la misma longitud para determinar que en efecto los péndulos son isocronos*, bastaràverificar que pasan simultáneamente por la posición de equilibrio. Se llegara notar que las amplitudes de algunos de ellos disminuyen mas que las de otros, pero observaremos que aquella situación —el isocronismo— subsiste.

Si disponemos de un buen cronometro, podemos aun mejorar los resultados de esta experimentación . Procedemos a tomar los tiempos empleados por cada uno, para 10 o 100 oscilaciones. Dividiendo esos tiempos por el número de oscilaciones obtendremos el de una sola (en casos de mucha precisión se llegan a establecer tiempos para 1.000, lo que reduce el error por cada oscilación De este modo puede verificarse que en realidad se cumple la ley. (*) Isocronos tiempos iguales.

Ley de las longitudes:

Suspendamos ahora tres péndulos cuyas longitudes sean:

Péndulo A = (10cm) 1 dm.
Péndulo B = (40 cm) 4 dm.
Péndulo C = (90 cm) = 9 dm.

Procedamos a sacarlos del reposo en el siguiente orden:
1) El de 1 dm. y el de 4dm.
2) El de 1 dm. y el de 9dm.

Observaremos entonces que:
a)
El de menor longitud va más ligero que el otro, o sea: “a menor longitud menor tiempo de oscilación y a mayor longitud mayor tiempo de oscilación”.
b) Mientras el de 4 dm. cumple una oscilación, el de 1 dm. cumple dos oscilaciones.
c) Mientras el de 9 dm. cumple una oscilación, el de 1 dm. cumple tres  oscilaciones.

Esta circunstancia ha permitido establecer la siguiente ley de las longitudes:

Los tiempos de oscilación (T) de dos péndulos de distinta longitud (en el mismo lugar de la Tierra), son directamente proporcionales a las raíces cuadradas de sus longitudes.

En símbolos

T1 y T2: tiempos de oscilación;
l1
y l2 : longitudes.

Para nuestro caso es:
T1= 1 oscilación y l1= 1dm
T2 = 2 oscilaciones y l2 =4 dm.

luego:

Osea: 1/2=1/2

Ahora para:
T1=1 oscilación y l1=1

T
3=3 oscilaciones y l3=9 luego:

Osea: 1/3=1/3

Ley de las aceleraciones de las gravedades: Al estudiar el fenómeno de la oscilación dejamos aclarado que la acción gravitatoria tiende a hacer parar el péndulo, pues esa es la posición más cercana a la Tierra. Significa esto, en principio, que la aceleración de la gravedad ejerce una acción primordial que evidentemente debe modificar el tiempo de oscilación del péndulo.

Si tenemos presente que la aceleración de la gravedad varía con la latitud del lugar, resultará que los tiempos de oscilación han de sufrir variaciones según el lugar de la Tierra.

En efecto, al experimentar con un mismo péndulo en distintos lugares de la Tierra (gravedad distinta) se pudo comprobar que la acción de la aceleración de la gravedad modifica el tiempo de oscilación del péndulo.

Por ejemplo: si en Buenos Aires el tiempo de oscilación es T1, y la gravedad g1, en Río de Janeiro el tiempo de oscilación es T2 y la gravedad g2, se verifica la siguiente proporcionalidad:

Repitiendo los experimentos para lugares de distinta latitud (por tanto, distinta gravedad) se puede verificar proporcionalidad semejante. De lo cual surge el siguiente enunciado de la Ley de las aceleraciones de la gravedad:

Los tiempos de oscilación de un mismo péndulo en distintos lugares  de la Tierra son inversamente proporcionales a las raíces cuadradas de las aceleraciones de la gravedad.

Fórmula del tiempo de oscilación del péndulo:

Para poder obtener el tiempo de oscilación de un péndulo se aplica la siguiente expresión:

t: tiempo de oscilación;
l
: longitud de péndulo;
g: aceleración de la gravedad.

que equivale al período o tiempo de oscilación completa.

Si fuera el correspondiente para una oscilación simple, aplicamos:

Esta fórmula condensa en sí las cuatro leyes del péndulo. En efecto, observamos:

1) En esa expresión no figura la masa m del péndulo, por lo que “el tiempo de oscilación es independiente de la masa”.

2) Como tampoco figura el ángulo de amplitud, “el tiempo de oscilación es independiente de la amplitud”.

3) La 3ra. y 4ta. leyes están incluidas en el factor:

,es decir: los tiempos de oscilación son directamente proporcionales a las raíces cuadradas de las longitudes e inversamente proporcionales a la de las aceleraciones de las gravedades”.

Péndulo que bate el segundo:

De la expresión:

(tiempo de oscilación simple) resulta que el tiempo de oscilación depende de la longitud y de la aceleración de la gravedad.

Si en determinado lugar (g: conocida) deseamos construir un péndulo cuyo tiempo de oscilación sea un segundo, tendremos que modificar su longitud.

Ello se logra aplicando la expresión:

luego:

y

De este modo para t=1 seg. se logra un péndulo que “bate el segundo”. Por ello decimos:

Péndulo que bate el segundo es aquel que cumple una oscilación simple en un segundo.

Para el lugar cuya aceleración de la gravedad es normal (g=9,806) la longitud del péndulo que bate el segundo es 0,9936 m, mientras que para el que cumple una oscilación doble en un segundo será l= 24,84 cm.

Caracterìsticas del movimiento del péndulo – Fuerzas que actúan:

Supongamos el péndulo en la posición de equilibrio AM (Fig. izquierda). El peso P es anulado por la reacción del hilo y no hay oscilación. Consideremos la posición OA, procedamos a descomponer la fuerza peso P, según las direcciones m y n. Obtendremos las fuerzas F1 y F’. La fuerza F’ queda anulada por la reacción del hilo. (Fig. abajo)

En consecuencia, en el punto A actúa solamente la fuerza F1, tangente al arco AMB y que provoca el movimiento del péndulo hacia M.

Si en el punto A’ efectuamos el mismo proceso de descomposición de la fuerza (P) peso, observaremos que F2 es menor que F1 obtenida anteriormente.

Resulta entonces que, a medida que a medida que, el péndulo se acerca a su posición de equilibrio OM la fuerza que provoca el movimiento disminuye hasta hacerse cero en el punto M (peso y reacción se anulan).

A pesar de ello, el péndulo continúa oscilando. Ello se debe a la inercia que posee. Si durante este movimiento actúa una fuerza F1, F2, etc., el movimiento es acelerado (no uniformemente acelerado).

Cuando el péndulo pasa al punto M, el peso del cuerpo actúa como fuerza negativa, es decir, el movimiento es retardado. Así llegará a un punto B en que su velocidad se anula, y no sube más (caso análogo al del cuerpo lanzado

hacia arriba al alcanzar su altura máxima). En ese momento el proceso se invierte, repitiéndose en sentido contrario, es decir, de B hacia M, continuando hasta A.

En síntesis:

1) En A, la fuerza F1 hace desplazar al péndulo hasta M (movimiento acelerado).

2) En M péndulo debiera quedar en reposo, pero por inercia continúa con movimiento retardado pues va en contra de la fuerza gravitatoria.

3) En B, la velocidad del péndulo se ha anulado (y = 0). En ese instante se invierte el movimiento y se desplaza hacia M. El péndulo continúa oscilando y cumpliendo el mismo proceso.

En consecuencia:

a) La fuerza que hace mover al péndulo no es constante.

b) La dirección y sentido de esas fuerzas son tales, que tienden a que el pendulo adquiera la posición de equilibrio

c) Como la fuerza F1 no es constan te, la aceleración tangencial no es constante. Su dirección y sentido cambian instante por instante.

d) La velocidad tangencial se anula en los puntos extremos y no es constante. Es máxima al pasar por la posición de reposo.

Por lo tanto:                          El movimiento del péndulo es variado.

Resulta alternativamente acelerado y retardado una vez cumplida cada oscilación simple y como la aceleración no es constante no es uniformemente variado.

Càlculo de la fuerza F:

Se puede demostrar matemáticamente que la fuerza F se puede calcular mediante la expresión:

donde:
P: peso del péndulo;
l: longitud del péndulo;
e: máxmia elongación.

El péndulo y sus aplicaciones:

Las aplicaciones del péndulo son variadas. Las más importantes son:

a) Determinación de la aceleración de la gravedad.

Sabemos que:

Elevando al cuadrado miembro a miembro es: 

y despejando g, es:

en esta igualdad es: numero pi (constante=3.1415), y l: medible fácilmente, T: se determina con un buen cronómetro.

Por lo que esta ultima expresión nos permite calcular con relativa facilidad la aceleración de la gravedad en un lugar determinado.

Esto constituye la aplicación científica de mayor importancia del péndulo. Para estas determinaciones se emplean péndulos reversibles, es decir, péndulos que pueden oscilar primero alrededor de un eje y después alrededor de otro. Colocado de tal modo que en cada una de esas posiciones el péndulo posea la misma longitud, y por lo tanto las oscilaciones son isócronas (igual tiempo de oscilación).

Así se logran valores de gran precisión. Se debe tener en cuenta en estas determinaciones la temperatura, amplitud de las oscilaciones y las influencias del rozamiento del aire y del soporte del péndulo.

El método de medición de g, con el péndulo, lo imaginó y expresó Huygens, y fue aplicado por el físico matemático Borda.

b) Determinación del movimiento de rotación de la Tierra.

Si disponemos de un péndulo suspendido de un alambre como indica la figura, y procedemos a sacarlo de su posición de equilibrio, observaremos que el plano de oscilación del péndulo no varía al girar el alambre sostén.

Por tanto: El plano de oscilación de un péndulo se mantiene invariable al modificarse la posición del “plano sostén”. (figura abajo)

 

Foucault, haciendo uso de esa propiedad, pudo demostrar la existencia del movimiento de rotación de la Tierra. Empleó un péndulo que constaba de una esfera de cobre de 25 kilogramos provista de un fiel y suspendida de la cúpula del Panteón (París) por medio de un alambre de acero de 79 m de largo.

En el suelo dispuso una capa de arena húmeda en la cual el fiel de la esfera pendular marcaba los trazos de sus oscilaciones.

Así se pudo ver que, a medida que transcurría el tiempo, esas marcas se iban modificando. Como el plano de oscilación es constante, significaba ello que lo variable era el plano del soporte, es decir, el Panteón o, lo que es igual, la Tierra. En realidad, este experimento puede realizarse en una sala ordinaria con péndulo más corto.

J. BI. Foucault: Físico francès, nacido y muerto en París (1819-68). Entre sus trabajos recordamos la invención del giroscopio, con el que puede determinarse la dirección del meridiano del lugar sin necesidad de la observación astronc5mica, el método para calcular la velocidad de la luz en el aire y en el agua, así como la demostración del movimiento de rotaciòn de la Tierra valiendose del pendulo.

c) Medición del tiempo: Huygens fue quien ideó un mecanismo para poder medir el tiempo. Sabemos que, para determinada longitud, el péndulo cumple una oscilación simple en un segundo. Por tanto, dando a un péndulo esa longitud, nos indicará, para cada oscilación, un tiempo igual a un segundo.

En otras palabras, si construimos un péndulo que efectúe en un día solar medio 86.400 oscilaciones, cada una de éstas nos indica un segundo.

Un péndulo que reúna estas condiciones, aplicado a un mecanismo motor (cuerda o pesas, que harán mover el péndulo) y a un sistema destinado a contar las oscilaciones, o sea, los segundos, constituye un reloj de péndulo.(figura izquierda)

En los relojes portátiles (de bolsillo, despertadores, etc.) el péndulo está reemplazado por el volante (rueda) que produce el movimiento oscilatorio del péndulo.

Cristian Huygens: Matemático y astrónomo holandéss (1629-1695). Fue un verdadero genio de su siglo. Inventa el reloj de pèndulo, y luego, el resorte espiral, para los de bolsillo. Enunciò la teoría ondulatoria de la luz, esbozó’ lo que hoy llamamos teorema de las fuerzas vivas; haciendo girar una esfera de arcilla, dedujo que la Tierra no podía ser esferica.

 

PENDULO DE TORSION Y DE TRACCION:
Péndulo de torsión
Llamamos péndulo de torsión al dispositivo formado por un alambro MN, sujeto por uno de sus extremos —M— a un punto fijo y el otro extremo N unido a una barra AB que a su vez termina en dos esferas.

Torsión: Fenómeno que se produce al aplicar al extremo de un cuerpo una cupla, mientras el otro extremo está fijo. También puede producirse torsión al aplicar simultáneamente un par de cuplas en cada uno de sus extremos. El péndulo de torsión permite calcular el momento de una fuerza F perpendicular al eje de torsión (alambre MN).

Factores que determinan su perìodo o frecuencia:

Apliquemos a los extremos de la barra AB la cupla F1=F2. La barra AB pasaría a la posición A’B’ girando un ángulo a y el alambre sufre una determinada torsión. Liberada la barra AB de esa cupla, el alambre tiende a volver a su posición primitiva debido a la existencia de fuerzas elásticas recuperadoras. En estas condiciones la barra AB comienza a oscilar como un verdadero péndulo físico.

Si deseamos detener al péndulo en el momento que forma el ángulo a será necesario aplicar una fuerza que anule la torsión del alambre. Esta fuerza será mayor o menor según sea el punto de aplicación respecto del centro de giro (respecto del alambre).

Puede verificarse que la intensidad de esta fuerza es la misma que hubiéramos necesitado para que desde la posición de reposo la barra AB formara el ángulo de torsión alfa.

De lo expuesto surge que todo depende del momento de la fuerza aplicada (fuerza por distancia).

Se puede comprobar que entre el momento de la fuerza aplicada y el ángulo de torsión a determinado, se cumple la siguiente relación:

En el péndulo de torsión, se cumple:

El tiempo de oscilación es independiente del ángulo de amplitud.

El tiempo de oscilación se calcula mediante la expresión:(*)

(*):Para el péndulo físico es:

(Para ángulos pequeños: P.d=K)

Similar a la del péndulo físico en la cual es
I: momento de inercia respecto al eje (hilo);
K:constante que resulta del cociente entre M y alfa.


Péndulo de tracción:
Elasticidad por tracción: Es el fenómeno producido por fuerzas que provocan el aumento de longitud de un cuerpo.

Sea el alambre a  sujeto por un extremo M, y en el otro extremo,  un platillo. Si sobre éste colocamos una pesa P, cualquiera, se provocará una fuerza que permitirá verificar un estiramiento o aumento de longitud del alambre. El dispositivo descripto constituye un péndulo de tracción.

Repitamos el experimento variando los pesos y observaremos que a mayor fuerza (peso) se verifica mayor estiramiento. Como es natural pensar, hay ciertos valores para la carga o fuerza F aplicada, en que los estiramientos dejan de ser proporcionales a esas fuerzas.

Existe entonces una tensión (fuerza aplicada) máxima para la cual se produce el estiramiento que permite recobrar al cuerpo su longitud inicial una vez desaparecida esa tensión. Las fuerzas elásticas recuperadoras tienden a llevar al cuerpo —alambre— a su posición o longitud primitiva.

Se produce así un movimiento oscilatorio que tiene un determinado período, que puede calcularse mediante la expresión:

Formula similar a la estudiada inicialmente para un péndulo de longitud l.

 Fuente Consultada: Física de Carlos Miguel Para Las Escuelas de Educación Técnica

Concepto Descriptivo Sobre la Conservación de la Energíación Técnica

Explicacion de las leyes de la termodinamica Descripciòn Sin Formulas

BREVE EXPLICACIÓN SIN FORMULAS DE LAS LEYES DE LA TERMODINÁMICA

Una de las leyes fundamentales de la física es que no se puede obtener algo de la nada. Por ejemplo, el motor de un coche no funciona ni el depósito del combustible está vacío. Antes de que el motor pueda suministrar energía mecánica al coche, es preciso que le demos, como mínimo, la misma cantidad de energía en forma diferente, por ejemplo, la energía química del combustible.

Pero la ley también afirma lo contrario: no se puede transformar algo en nada. Si la mezcla de gas combustible y aire se quema en los cilindros del motor, es imposible que no salga ningún tipo de energía del motor. No toda la energía que sale de éste es de la oíase que nosotros deseamos, es decir, energía mecánica para mover el coche, sino que la mayor parte se transforma en calor, con lo que se desperdicia. Pero, ya sea energía perdida en forma de calor o energía mecánica útil, la cantidad total de energía es exactamente la misma que la liberada por el combustible. En ningún caso se puede perder algo de energía.

Esta ley se conoce como ley de la conservación de la energía, y afirma que la energía no se puede crear ni destruir. Asimismo, es parte intrínseca de la primera ley de la termodinámica. La termodinámica es una rama de la física que trata, entre otras cosas, del transporte del calor de un lugar a otro, y de la conversión de la energía calorífica en otras formas de ella.

Además de afirmar que la energía se conserva, la primera ley define la energía calorífica y la energía mecánica. Parece obvio afirmar que la energía mecánica es la clase de energía ligada al movimiento que posee cualquier objeto que se mueve, mientras que la energía calorífica es algo que hace que los cuerpos estén más calientes.

Sin embargo, a menudo, la distinción entre estos dos tipos de energía no es tan clara y terminante. En el cilindro de un motor de combustión interna, por ejemplo, la mezcla de los gases se comprime o expande, según los pistones suban o bajen en el interior del cilindro. La mezcla gaseosa entra en ignición cuando su volumen es mínimo, es decir, en el instante en que se completa su compresión. En ese momento, la energía calorífica procedente de la reacción química se comunica al gas.

Un gas calentado se expande siempre que tenga oportunidad para ello. Debido a que su energía ha aumentado, las moléculas empujan contra todas partes, tratando de separarse, y, al hacerlo, actúan sobre el pistón forzándolo a moverse. Se dice que el gas trabaja contra el pistón y, a medida qué ello ocurre, parte de su energía calorífica primitiva se transforma en energía mecánica, que llega a las ruedas por intermedio de un complejo mecanismo.

La energía que resulta de la expansión y el trabajo realizado es la energía mecánica. Pero los gases están siempre más calientes que antes de la explosión, esto es, retienen siempre cierta cantidad de energía.

Este otro tipo de energía se denomina energía calorífica interna. La primera ley de la termodinámica afirma que la energía interna, junto con la energía mecánica, es igual a la energía calorífica suministrada a los gases inicialmente.

La termodinámica nunca trata el movimiento de las partículas aisladas que forman la materia considerada (en nuestro caso, las moléculas del gas). Esta ciencia trata sólo del comportamiento del gas en conjunto. Es fácil para la termodinámica manejar cantidades tales como la presión, temperatura y volumen de un número relativamente grande de moléculas, cuando todas ellas se comportan, más o menos, del mismo modo. Pero, aunque la termodinámica nunca se preocupa de las moléculas aisladas, la energía interna y la energía mecánica tienen su significado cuando se aplican a las propias moléculas.

La vibración de las moléculas se debe a la energía interna y, cuanto más caliente está una molécula, más vibra. La energía que aumenta la velocidad de las moléculas y hace que el gas, en conjunto, se expanda es la forma de energía que se puede convertir en energía mecánica.

LA SEGUNDA LEY DE LA TERMODINÁMICA

Si se ponen en contacto un recipiente de agua hirviendo y un plato con hielo, el agua se enfría y el hielo se calienta. Hay un intercambio de calor entre el agua hirviendo y el hielo, y pasa más calor del agua al hielo que del hielo al agua.

Es decir: el calor siempre va “cuesta abajo”, desde el objeto más caliente al objeto más frío. No es posible que el calor vaya “cuesta arriba” por sí mismo; por ejemplo, de un objeto frío a otro caliente. Esta afirmación es una de las muchas maneras de enunciar el segundo principio de la termodinámica.

La termodinámica es una rama de la física, que se ocupa de las cantidades de calor que van de un lugar a otro, y de la transformación de la energía calorífica en otras formas de energía. El principio (ley) cero de la termodinámica define la significación de la temperatura. El primer principio establece que si tenemos una cierta cantidad de calor, podemos convertirla en otra forma de energía; pero, hagamos lo .que hagamos, no podemos conseguir que desaparezca. Cuando en dos objetos a distinta temperatura existe una cierta cantidad de energía, el segundo principio rige la dirección del flujo de energía calorífica de un objeto a otro.

La termodinámica abarca, fundamentalmente, una serie de desarrollos matemáticos, y existen muchas otras maneras matemáticas de definir el segundo principio de la termodinámica. Sin embargo, todas ellas se resumen, diciendo, simplemente, que es imposible que el calor, por sí solo, vaya “cuesta arriba”.

En un refrigerador doméstico se hace que el calor vaya “cuesta arriba”. Para ello, debe absorberse calor del congelador, que es el lugar más frío del refrigerador. Se extrae de un lugar frío y se cede a un lugar más caliente: el aire que rodea al refrigerador. Pero el calor no puede hacer esto por sí solo.

En muchos de ellos (los de compresor), el movimiento “cuesta arriba” del calor, del objeto frío al caliente, es ayudado por un motor eléctrico, mientras que el calor en sí es transportado por el vapor, en tubos. Por lo tanto, se usa energía (por el motor) para transferir el calor. Se hace que el vapor se condense, y entonces se lo expansiona bruscamente.

Al expansionarse, se enfría hasta que su temperatura queda por debajo de la parte más helada del congelador. Solamente así se puede extraer calor de éste, pues, de acuerdo con el segundo principio, el calor sólo puede pasar a un objeto más frío. Después, el motor comprime el gas, su temperatura sube nuevamente, y de esta forma puede ceder su calor al aire exterior. Luego, el gas se expansiona, se enfría, y todo el ciclo se repite continuamente.

Sería mucho más fácil fabricar refrigeradores, si el segundo principio de la termodinámica fuese falso. Si, por ejemplo, el calor pudiese ir, por sí solo, desde el plato con hielo al recipiente de agua hirviendo, el hielo se enfriaría más y el agua herviría con mayor intensidad. El calor extraído al hielo podría aprovecharse para hervir el agua. Los refrigeradores no necesitarían motores ni circulación de líquidos. Desgraciadamente, esto no ocurre, y esa imposibilidad es la mejor prueba en apoyo del segundo principio de la termodinámica.

LA TERCERA LEY DE LA TERMODINÁMICA

A Fahrenheit no le gustaba la idea de tener que operar con temperaturas negativas. Por eso, al idear su escala de temperaturas, quiso asegurarse de que nunca encontraría una temperatura negativa. Fijó como punto cero de la escala, 0°F, la temperatura de la sustancia más fría entonces conocida, una mezcla frigorífica de hielo y sal. Sin embargo, hace tiempo que esta ventaja en la escala Fahrenheit ha desaparecido. Se han desarrollado métodos que permiten alcanzar temperaturas mucho más bajas, que son temperaturas negativas en la escala Fahrenheit.

El método principal consiste en enfriar un gas, comprimirlo y luego dejarlo expandir de repente. En estas condiciones, muchos gases se enfrían considerablemente. Por medio de algunos sólidos, todavía pueden alcanzarse temperaturas más bajas, enfriándolos mientras se encuentran en un fuerte campo magnético. Cuando se suprime el campo, la temperatura del sólido desciende aún más.

Hay, sin embargo, un límite perfectamente definido para el enfriamiento alcanzado en estos procesos. Existe un cero natural de temperatura, el cero absoluto, que es definitivamente la temperatura más baja posible. Mientras que la “temperatura más fría posible” de Fahrenheit no duró mucho tiempo como tal, en cambio no hay probabilidad alguna de alcanzar nada más frío que el cero absoluto.

Parecía evidente a los científicos, al observar el comportamiento de los gases sometidos a enfriamiento, que debía existir un cero absoluto. En efecto, comprimieron los gases enfriados. Se midió la velocidad de compresión y se llegó a la conclusión de que, si pudiera continuarse el enfriamiento por debajo de —460°F (—273° en la escala centígrada), el volumen del gas habría quedado reducido a nada. ¡Evidentemente, sería imposible lograr un gas más frío que el cero absoluto, donde ocuparía un espacio negativo!

Si bien se reconoció como cosa imposible alcanzar una temperatura más baja que el cero absoluto, persistía todavía el problema: ¿Era incluso posible alcanzar el cero absoluto mismo? Y aunque actualmente los científicos están a unas cuantas millonésimas de grado de alcanzarlo, es bien sabido que, realmente, jamás lograrán conseguirlo. Esta afirmación es una de las maneras de enunciar la tercera ley de la termodinámica: “Por mucho que tratemos de enfriar una cosa, es imposible enfriarla por debajo del cero absoluto.”

Los científicos han constatado que cuanto más fría está una sustancia, tanto más difícil es conseguir nuevos enfriamientos. Aislar la sustancia y protegerla del calor del laboratorio es prácticamente imposible. Las sustancias a bajas temperaturas, invariablemente, se guardan en recipientes de vacío especialmente diseñados. Pero no es ésta la razón principal de que no pueda alcanzarse la mínima temperatura posible.

El único método de enfriamiento adecuado es, por consiguiente, aquél en que se enfría una clase especial de cristal hasta pocos grados del cero absoluto, con helio líquido. Al mismo tiempo, el cristal se mantiene en el campo magnético de un grande y potente electroimán. El helio líquido se quita, el cristal se aísla por completo y el campo magnético se desconecta lentamente. Tienen lugar cambios en la manera en que los átomos están dispuestos en el cristal, y el resultado es un descenso de la temperatura. Teóricamente, entonces sería posible usar este cristal enfriado para, a su vez, enfriar otro cristal, y repetir el proceso de magnetización y desmagnetización sucesivamente, llegando cada vez más cerca del cero absoluto.

Desgraciadamente, sucede que, al bajar la temperatura, este descenso se vuelve cada vez más pequeño, de forma que para un cristal de temperatura muy cercana al cero absoluto, el descenso de ésta llega a ser infinitamente pequeño. Por muchas veces que los cristales sean sucesivamente enfriados, los descensos de temperatura son tan minúsculos, que el cristal nunca alcanzará el cero absoluto.

Fuente Consultada: Revista TECNIRAMA Nª 78.

Leyes de Kepler Movimiento de los Planetas Sus Orbitas Elipticas

Leyes de Kepler – Movimiento de los Planetas

Resolución del problema de los movimientos planetarios: El tema de los movimientos planetarios es inseparable de un nombre: Johannes Kepler. La obsesión de Kepler por la geometría y la supuesta armonía del universo le permitió, luego de varios frustrados intentos, enunciar las tres leyes que describen con extraordinaria precisión, el movimiento de los planetas alrededor del Sol.

Desde una posición cosmológica copernicana, que como hemos visto en esa época era más una creencia filosófica que una teoría científica, Kepler logró esta magnífica empresa de manera totalmente empírica, sin más teoría que su propio convencimiento sobre el carácter fundamental (divino) de la geometría, y utilizando la gran cantidad de datos experimentales obtenidos por Tycho Brahe.

La primera ley establece, a pesar de su autor, que los planetas describen órbitas elípticas alrededor del Sol, que ocupa uno de sus focos. En la escala de valores geométricos de Kepler, el círculo ocupaba un lugar privilegiado y de ahí su decepción, luego de múltiples intentos por compatibilizar las observaciones con órbitas circulares.

Primera Ley: “La orbita que describe cada planeta es una elipse con el Sol en uno de sus focos”

orbita eliptica de un planeta

Las elipses de las trayectorias sonde  muy poca excentricidad, de tal manera que difieren muy poco de la circunferencia. Asì por ejemplo , la excentricidad de la órbita de la Tierra es e=0,017, y como la distancia Tierra-Sol es aproximadamente 150.000.000 de Km. la distancia del Sol (foco) al centro de la elipse es de ae=2.500.000 Km.

La segunda ley se refiere a las áreas barridas por la línea imaginaria que une cada planeta al Sol, llamada radio vector. Kepler observó que los planetas se mueven más rápido cuando se hallan más cerca del Sol, pero el radio vector encierra superficies iguales en tiempos iguales. (Si el planeta tarda el mismo tiempo en ir de A a B en la figura , que de c a D, las áreas en blanco son iguales).

Segunda Ley: “Cada planeta se mueve de tal manera que el radio vector (recta que une el centro del Sol con el planeta) barre area iguales en tiempos iguales”.

El radio vector r, o sea la distancia entre el planeta y el foco (Sol) es variable, pues es mínima en el perihelio y máxima en el afelio. Como la velocidad areal (área barrida en la unidad de tiempo) es constante, la velocidad del planeta en su órbita debe ser variable. En virtud de esta ley, si las áreas PFM y AFN son iguales, el arco PM será menor que el AN, lo que indica que el planeta se desplaza más ligero en el perihelio. Es decir, su velocidad es máxima a la mínima distancia al Sol y mínima a la máxima distancia.

Finalmente, la tercera ley relaciona el semieje mayor de la órbita, llamado a, al período orbital del planeta p, de la siguiente manera: a3/P2 = constante. De acuerdo a esta ley, la duración de la trayectoria orbital de un planeta aumenta con la distancia al Sol y así sabemos que el “año” (definido como el tiempo empleado por el planeta en volver al mismo punto de su órbita) en Mercurio tiene 88 días (terrestres), en Venus 224, en la Tierra 365 y sigue aumentando a medida que nos alejamos del Sol. Estas leyes permiten también deducir las distancias relativas de los objetos del sistema solar, si conocemos sus movimientos. Determinando independientemente alguna de ellas es posible conocer sus valores absolutos.

Tercera Ley: “El cuadrado de los períodos de revolución de dos planetas es proporcional a los cubos de sus distancias medias al Sol.” (ver una animación de Liventicus)

Si a1, y a2 son las distancias medias al Sol de dos planetas, por ejemplo Marte y la Tierra, y p1 y p2 son los respectivos tiempos de revolución alrededor del Sol, de acuerdo con esta ley resulta que:

donde el tiempo està dado en años y la distancia en unidades astronómicas (UA=150.000.000 Km.)

Dados el periodo P y la distancia a de un planeta al Sol; y el período o la distancia de otro, se puede determinar el dato incógnita. Por ejemplo, para la Tierra P1 1 año; a1 = 1 UA; y para Venus a2 = 0,72 UA, se puede calcular el período P2 de Venus:

Si dado el período de revolución de un planeta se desea conocer la distancia, se aplica la expresión:

que para el caso del planeta más lejano del sistema solar, Plutón, donde P2 = 248 años, resulta:

Posteriormente al enunciado de esta ley hecho por Kepler, Newton probó que en la misma deben aparecer las masas de los cuerpos considerados, y de esta manera obtuvo la siguiente fórmula:

donde M es la masa del Sol (el cuerpo situado en el foco de la Órbita), igual a 330 000 veces la masa de la Tierra, y m1 y m2 son las masas de los de cuerpos considerados que se mueven a su alrededor en orbitas elípticas. Esta expresión permite calcular la masa de un planeta o satélite, si se conoce su periodo de traslación P y su distancia media a al Sol. (ver Ley de Bode).

En general para los planetas del sistema solar solo las masas de Júpiter y Saturno no son despreciables respecto a la del Sol. De esta manera , en la mayoría de los casos se considera (M+m) igual a: 1 masa solar y se obtiene así la expresión dada originalmente por Kepler.

Por primera vez una única curva geométrica, sin agregados ni componentes, y una única ley de velocidad resultan suficientes para predecir las posiciones planetarias, y por primera vez también, las predicciones son tan precisas como las observaciones.

Estas leyes empíricas recién encontraron su sustento físico y matemático en la teoría de la gravitación universal de Newton, quien estableció el principio físico que explica los movimientos planetarios. La construcción de este cuerpo de ideas que comienza con Copérnico y culmina en la mecánica de Newton es un ejemplo por excelencia de lo que se considera un procedimiento científico, al que se puede describir muy esquemáticamente de la siguiente forma: se observa un hecho, se mide y se confecciona una tabla de datos; luego se trata de encontrar leyes que relacionen estos datos y, finalmente, se busca un principio que sustente o explique las leyes.

Una vez encontrado, este principio físico permite en general conectar hechos considerados previamente independientes y explicar más fenómenos además de aquellos que motivaron su formulación. Newton fue así capaz de establecer que el movimiento de los planetas alrededor del Sol y la caída de los cuerpos sobre la superficie terrestre son dos manifestaciones del mismo fenómeno: la gravedad.

En general es difícil separar estos pasos claramente. El salto del sistema tolemaico al copemicario se realizó en mayor medida debido a la reinterpretación de ciertas observaciones que a la obtención de nuevos datos. Incluso Kepler formuló sus leyes escudriñando más en detalle esencialmente las mismas observaciones Ptolomeo había mencionado que los movimientos aparentes de los astros podían explicarse suponiendo que la Tierra estaba en movimiento. Pero tal suposición no proporcionaba más que un mecanismo conveniente para los cálculos, y dado que la cosmología aristotélica requería una Tierra inmóvil en el centro del universo, prefirió adoptar la suposición que resultaba verdadera en el marco de la física aceptada en ese momento.

En realidad la escuela de Pitágoras había establecido mucho tiempo antes, en el siglo VI a.C., que tanto la Tierra como el Sol se movían alrededor del “fuego central”. Aristarco de Samos (siglo nI a.C.) —mejor conocido por sus mediciones de las distancias al Sol y a la Luna, lo que configuró una tarea extraordinaria considerando las herramientas matemáticas de la época— sostenía que la Tierra rotaba sobre su eje y describía una órbita alrededor del Sol. También algunos filósofos del Renacimiento habían asignado movimiento a la Tierra. Pero ninguno de ellos usó esa suposición como punto de partida para dar una descripción detallada y sistemática de los movimientos aparentes de los cuerpos celestes.

En la labor científica no es sencillo decidir qué elementos o datos deben ser relacionados por las leyes. Kepler nos brinda un ejemplo de selección de “pistas útiles”.

En 1609 el científico italiano Galileo Galilei (1564-1642) fue el primero en dirigir un telescopio al cielo y como resultado, proporcionó a la astronomía el primer conjunto de datos cualitativamente nuevos, desde la antigüedad. El telescopio permitió descubrir nuevas pruebas en favor del modelo heliocéntrico. La Vía Láctea, hasta entonces un objeto nebuloso considerado más cercano a la esfera de la Tierra que a la de las estrellas, pudo resolverse por primera vez en una enorme cantidad de estrellas, demasiado débiles y pequeñas para ser separadas individualmente por el ojo desnudo. El telescopio permite efectivamente separar dos estrellas que a simple vista parecen como una sola. Esta propiedad se llama poder de resolución y se define con la mínima separación angular de dos estrellas que puede observarse.

El astrónomo italiano Galileo Galilei (1564-1642). Cuando Galileo defendió la hipótesis heliocéntrica -la afirmación de que la Tierra gira alrededor del Sol-, se enfrentó con la opinión dominante de la Iglesia católica. Sin embargo, su hipótesis era coherente con los conocimientos disponibles en la época.

Cuanto mayor es la apertura (o el diámetro del objetivo) mayor es el poder de resolución. Esta innumerable cantidad de nuevos objetos volvió a dar credibilidad a la idea de un universo mucho más grande de lo supuesto por los antiguos astrónomos, tal como había sugerido Copérnico.

El telescopio también permitió resolver una paradoja usada por Tycho contra el modelo copenicano: si el universo es tan grande como requiere la ausencia de paralaje, entonces las estrellas deben ser extremadamente grandes. Hasta entonces los tamaños estimados de las estrellas no eran superiores al del Sol y estas estimaciones se hacían suponiendo un valor para la distancia a las estrellas . En base al mismo, el tamaño angular observado podía transformarse en una estimación de sus dimensiones lineales.

Pero si esta distancia aumentaba tanto, también aumentaba el tamaño de las estrellas. Las estrellas más brillantes tendrían diámetros más grandes que la órbita de la Tierra y esto parecía imposible. El telescopio permitió descubrir que tal argumento era falso. Aunque aumentó notablemente el número de estrellas visibles no hizo lo mismo con su tamaño. A diferencia del Sol, la Luna y los planetas que se agrandan sustancialmente cuando se observan a través del telescopio, las estrellas mantienen su tamaño. El diámetro angular de las estrellas se había sobrestimado y actualmente sabemos que esto es una consecuencia de la turbulencia atmosférica, el mismo fenómeno que hace parecer que las estrellas titilan.

El nuevo instrumento permitió también descubrir “imperfecciones” en las superficies lunar (cráteres, montañas, zonas claras y oscuras) y solar, lo que sembró dudas sobre la “naturalidad” de la distinción tradicional (aristotélica) entre las regiones terrestre (repleta de imperfecciones) y celeste (perfecta). El movimiento de las manchas observadas en la superficie solar sugirió que el Sol rota y así la rotación de la Tierra dejó de ser una idea descabellada. El descubrimiento de las “lunas” de Júpiter y su movimiento alrededor del planeta terminaron por destruir la idea de que todos los objetos celestes deberían moverse alrededor del centro del universo.

Pero la pregunta obligada es ahora: ¿Qué es lo que hace mover los planetas?

La explicación física del movimiento planetario en la antigüedad era que los planetas y las esferas que los contenían estaban hechos de un elemento celeste perfecto que rotaba eternamente alrededor del centro del universo. El movimiento circular uniforme se consideraba natural. Pero un planeta moviéndose de acuerdo a las leyes de Kepler, cambiando su velocidad, dirección y curvatura en cada punto de su órbita, parecía requerir algún tipo de fuerza responsable de estos cambios. Kepler introdujo la noción de fuerzas originadas en el Sol y los planetas que proporcionaban la causa del movimiento planetario y de sus satélites.

Las mismas estaban relacionadas con el magnetismo, cuyas propiedades habían sido recientemente descubiertas: la Tierra y los planetas eran para Kepler grandes imanes y las atracciones y repulsiones de los polos determinaban las trayectorias planetarias. Si bien estas ideas no prosperaron, la concepción kepleriana del sistema solar como un sistema autocontenido, tanto de sus componentes como de las causas de los movimientos de las mismas, resultó muy importante en los desarrollos sucesivos de las ideas cosmológicas.

PARA SABER MAS…
MAS ALLÁ DE LAS LEYES DE KEPLER

No obstante , la gravitación universal va mas allá de las leyes de Kepler, pues permite  establecer la forma más general que puede tener la órbita de un objeto sometido a la fuerza gravitatoria de otro cuerpo. Puede ocurrir, en efecto, que el primero no esté ligado establemente al segundo, sino que el encuentro entre los dos sea sólo temporal, como sucede, por ejemplo, con algunos cometas destinados a pasar una sola vez por las cercanías del Sol y luego a perderse por el espacio interestelar.

La forma de las órbitas celestes puede ser cerrada, si el objeto que órbita está destinado a moverse por las proximidades del cuerpo atractor, o abierta, si el primero viene de remotas regiones siderales y está destinado a regresar a ellas. En el primer caso, la órbita será elíptica o circular; en el segundo será hiperbólica o parabólica, según que la trayectoria sea una hipérbola o una parábola.

En realidad, las órbitas de los cuerpos celestes se ven continuamente modificadas por una serie de fenómenos secundarios, entre los cuales figuran la presencia de otros objetos masivos, que en el caso del sistema solar son los demás planetas, así como efectos de marea o también la presencia, como en los cometas, de chorros que actúan como cohetes propulsores.

El ulterior desarrollo de las leyes de la gravitación por Albert Einstein en su teoría de la relatividad general ha puesto de manifiesto que los movimientos keplerianos son sólo aproximaciones a los movimientos reales de los objetos celestes, incluso en ausencia de fenómenos más complicados.

Sin embargo, las leyes de Kepler permiten describir con suficiente precisión las órbitas de los planetas del sistema solar. Además, tienen una importancia histórica notable, pues fueron el elemento de ruptura con la descripción del universo debida a Tolomeo que estuvo en vigor durante siglos.

UN POCO DE HISTORIA

Kepler vió cumplido el sueño de su vida. Consideró que había descubierto las leyes con las que Dios había creado el universo y regían su funciona miento. Se consideró el afortunado mortal que había desentrañado el secreto de un cosmos que reflejaba la trinidad divina. Un cosmos limitado por la esfera de las estrellas fijas y centrado en el Sol, en cuyo interior los planetas cantaban la gloria de Dios. Pero, efectivamente, su obra apenas tuvo impacto alguno entre sus contemporáneos. Nadie dudaba de su autoridad en el campo de la astronomía, que se vio ratificada con la publicación de las Tablas rudolfinas (1627), pero nadie aceptó sus especulaciones cosmológicas. Sus ideas sobre los sólidos regulares y las armonías celestes, apenas tuvieron un solo seguidor.

La Astronomía nova, su gran obra astronómica, fue un fracaso editorial absoluto, que reflejaba claramente el rechazo que su «física celeste» recibió desde un principio. La comunidad científica, incluso más allá del conservador mundo académico, no aceptó su tratamiento y explicación física de los fenómenos astronómicos. El copernicanismo seguía siendo aceptado mayoritariamente como mero instrumento de cálculo. E incluso Galileo, que defendía el heliocentrismo y el movimiento terrestre como verdaderos, siguió apegado al dogma de la circularidad e ignoró totalmente, como Descartes, la obra cosmológica de Kepler, que consideraba totalmente fantasiosa.

La física galileana, que coronó en Newton, rompía radicalmente con la física celeste de Kepler, que aún compartía elementos esenciales de la física aristotélica. No obstante, las leyes de movimiento planetario descubiertas por Kepler y cubiertas por la fronda de su desaforada especulación, debidamente cribadas, fueron el punto de partida de la gran síntesis que Newton sifué capaz de llevara cabo entre la física celeste y terrestre. Pero, aun siendo generosos, es difícil considerar a Newton el lector que Kepler esperaba.

Fuente Consultada: Astronomía Elemental de Alejandro Feinstein y Notas Celestes de Carmen Nuñez.

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. “Y entonces Gauss, ¿qué?”, preguntó el asombrado von Humboldt. “Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.”

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo “Halla la suma de los 100 primeros números enteros”.

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por “malgastar”su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al “análisis situs” y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte “shock”. Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra “Disquisitiones Arithmeticae”, obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del “nuevo planeta”, llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton La Fuerza de Gravedad
La Atracción Terrestre

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

El rol de las manzanas en la elaboración de la teoría de la gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco. Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos. Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado “natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra. La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos. La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna. ¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula. Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol. Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos. Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea. En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol. Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento. Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB). En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B. Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo). Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable. Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna) Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción. Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla. Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto. En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima. Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad “de escape”, muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y “desviarla” de alguna manera.

• Los animales sometidos a una “gravedad” elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que “cae” como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Gobierno Socialista de Leonidas Brezhnev Historia Union Sovietica

Gobierno Socialista de Leonidas Brezhnev 

Leonid Brezhnev

La era de Brezhnev. El nuevo gobierno, dirigido desde 1964 por Leonid Brezhnev en su calidad de secretario general del Partido Comunista, dio un cambio de giro en política interna volviendo a restringir la libertad en vista del fracaso experimentado por el gobierno anterior en sus intentos de democratización social.

En este contexto se encuentra la nueva política hacia los países satélites de Europa central y oriental, conocida como Doctrina Brezhnev o “Doctrina de soberanía limitada”, vigente hasta mediados de la década de 1980.

Sin embargo, en política exterior, Brezhnev anunció el propósito de continuar la coexistencia pacífica con Occidente y restaurar la unidad comunista que se había roto con China en tiempos de Kruschev. Las primeras medidas adoptadas por el nuevo gobierno dieron como resultado algunas mejoras económicas en conjunto, pero no se logró aliviar la situación de la agricultura, sector que en 1972 entró en una nueva crisis, más grave todavía que la de 1963, y obligó a las autoridades a realizar importaciones de alimentos cada vez más cuantiosas y más perjudiciales para la economía soviética.

Por otra parte, la aceleración desmedida de la industrialización provocó el efecto contrario del estancamiento de la industria ligera, al grado que resultaba imposible satisfacer el consumo de la creciente población.

Se hacía evidente entonces que la economía soviética estaba muy lejos de alcanzar, y mucho menos superar, la de Estados Unidos como Kruschev había prometido años atrás, sino por el contrario, acentuaba aún más su retraso.

Esta tendencia persistía a pesar de la crisis económica que experimentaron los países del bloque occidental en la década de 1970; así pues, lejos de avanzar hacia el comunismo, es decir, hacia la igualdad de clases, en la sociedad soviética se acentuaban las desigualdades.

Otra característica de la URSS en este periodo fue el inmovilismo del sistema, manifiesto en la escasa renovación de los cargos, de modo que se fue produciendo un progresivo envejecimiento de la clase política. Brezhnev se propuso fortalecer el sistema y dotar a la burocracia —la llamada nomenklatura—, integrada por unos dos millones de personas, de una mayor estabilidad para mejorar su prestigio.

En la Constitución creada en 1977, se fortaleció el papel centralizador del Partido Comunista, y se dio una mayor concentración del poder en los altos dirigentes del Estado.

Fuente Consultada:
El Gran Libro del Siglo XX de Clarín – El Mundo Moderno y Contemporáneo de Gloria Delgado

Biografía de Braille Louis Sistema Braille de Lectura Para Ciegos

Biografía de Braille Louis – Sistema Braille 

En aquel húmedo dormitorio parisino, en 1823, nada hacía presagiar la grandeza de su logro. Louis solamente sabía que era preciso encontrar alguna forma para que él y las demás personas ciegas pudieran leer con facilidad -así como es de sencillo para los videntes hacerlo y también escribir al igual que ellos- para compartir el vasto conocimiento del mundo y tomar parte en el engrandecimiento cultural.

El hijo del talabartero de Coupvray

Louis nació el 4 de enero de 1809 en la aldea de Coupvray, cuarenta kilómetros al este de París.
Louis Braille no siempre fue invidente. Los tres primeros años de su vida gozó de su vista; inundaba la casa paterna con sus exploraciones y la curiosidad propia de un niño rodeado del amor y la atención de su familia.

Era motivo de regocijo para su hermano y hermanas: Louis-Simon, de diecisiete años, que se sentía ya un hombre, Catherine-Joséphine, de diecinueve, y Marie Céline, de catorce años de edad. El menor de la familia, el pequeño Louis, poseía mucha energía y curiosidad acerca de su reducido mundo; ¡vivía lleno de alegría y ansioso por saberlo todo!

Louis trajo a su padre y a su madre un rayo de luz, pues llegaba a la vida cuando su madre, Monique, cumplía cuarenta y un años y su padre, Simón-René cuarenta y cuatro. El día del nacimiento de Louis, Simón-René declaró con orgullo que el chico sería su apoyo y compañía en la vejez. Su padre era talabartero fabricante de arneses de la aldea. El suyo era un oficio calificado de gran demanda en aquellos tiempos en que el transporte era principalmente a caballo

No existen registros exactos de como Louis quedó ciego, ni siquiera la fecha exacta de este suceso, que se supone fue en 1812. La historia fue armada en base a relatos de diversas personas allegadas a la familia, y  cuentan que se escuchó un grito desde el taller de trabajo, y cuando acudieron a socorrerlo lo vieron llorando con la cara bañada en sangre, producto de un corte con una herramienta punzante que el padre utilizaba para su tarea. Los padres hicieron todo lo que pudieron e intentaron curas de todo tipo, pero pensemos que por aquella época la medicina aun no conocía las causas de las infecciones. El ojo del niño día a día a empeoraba, inflamándose y tomando una apariencia de golpeado, inclusive invadiendo el otro ojo, por lo que al poco tiempo el pequeño pedió la visión total.

Durante esa época Napoleón había sido derrotado y los grandes ejércitos aliados, como rusos y austriacos entraron a Couprvay exigiendo atención en alimentos y caballos, reses y vagones para los soldados. La familia de Louis atendió a sesenta y cuatros soldados durante los dos años que duró la ocupación. Louis cumplió los siete años de edad.

Los libros de Haüy para invidentes

Valentin Haüy (imagen), fundador de la escuela, desarrolló una técnica para imprimir libros destinados a los ciegos. Un papel grueso era prensado por tipos especiales de plomo, para hacer letras en relieve; es decir, letras que se elevaban de la superficie de la página, y que podían sentirse al contacto con los dedos. No tenían muchos de estos libros en la escuela, pues era bastante dispendiosa su producción.

Cada letra se debía colocar individualmente en su posición, cada pieza de papel humedecido se colocaba en la prensa y se imprimía. Tomaba varias semanas hacer copias de una sola página; por esta razón, no es sorprendente el hecho de que en muchos años, Valentin Haüy hubiera producido solamente unos cuantos libros y folletos.
Los libros eran grandes e incómodos; cada página estaba compuesta de dos piezas de papel, pegadas de manera que las letras en relieve se enfrentaran por su cara externa. Tenían varios textos religiosos y algunas, gramáticas en diferentes lenguas: una colección bastante singular, para ser la biblioteca básica de sesenta niños alumnos de la institución Real para Niños Ciegos. Pero a pesar de todo, ¡eran libros!

Louis tuvo que admitir que, luego de la excitación ocasionada por la sensación inicial de tocar con sus dedos aquellas letras en relieve, siguió un sentimiento de frustración. Leer resultaba algo demasiado lento. Se debía seguir cada letra con los dedos, y luego era necesario tenerla presente mientras se pasaba a la siguiente, y recordarlas todas en secuencia hasta que los dedos recorrían la palabra entera. Era muy fácil olvidar las primeras letras cuando ya se llegaba al final de la palabra. Y aunque Louis progresaba considerablemente, era difícil apreciar las formas de las letras.

Valentin Haüy fue uno de los pocos hombres de la época que se conmovió frente a las penurias que pasaban los ciegos y como eran objeto de burlas, como cuando por ejemplo una multitud abucheaba a un grupo de no vidente que disfrazados con orejas de burro y grandes anteojos ejecutaban una melodía en una feria. La suposición de que los ciegos eran estúpidos e inservible estaba fuertemente arraigada en la sociedad y no era nada fácil convencerlos de que tenían un gran potencial humano para integrarlos laboralmente.

Los Primeros Pasos Hacia el Alfabeto Braille:
El capitán de artillería del ejército de Luis XVIII, llamado Charles Barbier , abordó al Dr. Pignier ,nuevo director de la escuela de Louis, para presentarle un sistema de escritura usando solamente rayas y puntos en relieve. Su aplicación seria para el envío de órdenes en la oscuridad entre los soldados, por lo que se llamaba “escritura nocturna”.

El sistema no usaban letras individuales para armar el mensaje, sino que transmitía sonidos completos y se lo conocía como: sonografía. El uso de puntos y rayas era muy novedoso, por lo que el director aceptó que los alumnos lo probasen un tiempo para conocer los resultados, que inicialmente tuvo mucha aceptación y gran parte de los muchachos estaban sumamente conformes con el uso de este nuevo método le lectura, pero al poco tiempo debieron reconocer que tenia limitaciones que debían superar de alguna manera.

Por ejemplo este sistema no permitía colocar comas, puntos y comas o signo de puntuación, que es una parte esencial del idioma francés. Tampoco se podía representar los números y menos aun hacer operaciones matemáticas, igual ocurría para la música.

Louis con solo 13 años, interpretó rápidamente los importante de este método, pero intentó solucionar estos inconvenientes con el capitán Barbier, quien rechazó toda sugerencia pues para que los ciegos querían algo tan sofisticado, si su método funcionaba “a la perfección” para la comunicación que los no videntes necesitaban.

El pequeño desistió de intentar convencerlo, pero se puso con todas sus energías a trabajar en los ratos libres todos los días posibles. Para comenzar debía eliminar el número de puntos , de manera que se pudiera sentir al instante cada símbolo de la yema de los dedos. También era necesario eliminar cualquier grupo de puntos o rayas que pudieran confundirse con otro, pues cada conjunto de rayas y puntos debía ser absolutamente diferente de cualquier otro.

Louis trabajó sin pausa y con empeño hasta que llegó el día que consideró que su alfabeto estaba listo para ser probado. Había encontrado la manera de formar todas las letras del alfabeto, los acentos, signos de puntuación y signos matemáticos, utilizando simplemente la combinación de seis puntos y algunas pequeñas rayas horizontales. Además el grupo de puntos eran tan pequeño que no hacia falta mover el dedo para interpretarlo, es decir se lo podía determinar de un solo tacto.

Sólo seis puntos y el brillante muchacho encontró la forma de combinarlos de sesenta y tres maneras. Era algo verdaderamente extraordinario! Louis le comentó, muy seriamente, que aún quedaban unos pequeños detalles por resolver. Sin dudarlo, el director felicitó al joven alumno y lo exhortó a continuar sus experimentos.

Tomó poco tiempo a los demás estudiantes aprender el sistema inventado por Louis y les evitó el tipo de frustraciones que experimentaron con los puntos del Capitán Barbier. El doctor Pignier, impresionado por el tremendo entusiasmo de sus estudiantes y por la increíble velocidad de su progreso, adaptó las reglas de Barbier a los puntos del nuevo sistema.

Dividieron en dos más pequeñas las grandes “ventanas” del gancho corredizo, de manera que cada ventana permitía únicamente la colocación de seis puntos dentro de ella. Por primera vez, los invidentes podían escribir, tomar notas, copiar sus pasajes preferidos, llevar diarios, escribir historias, todas las cosas que una persona que tiene visión da por hechas y que hasta ese momento habían permanecido fuera de su alcance. Sin lugar a dudas, nacía una nueva época para los invidentes.

Ya en 1847, los nuevos métodos de impresión adaptados al Braille fueron probados en la escuela. En todas las esferas de la enseñanza, el Braille comenzaba a desplegar sus cualidades; tales eran los logros que sus usuarios obtenían con él.

Últimos años de Louis
Alrededor de 1850, Louis sintió que las fuerzas le abandonaban definitivamente. Solicitó su retiro de la enseñanza. En su lugar, el director le ofreció que permaneciera en la Institución, y que eventualmente dictara algunas clases de piano. En diciembre de 1851, Louis estaba muriendo. No cumplía aún los cuarenta y tres años de edad. Coltat nos cuenta que tuvo una severa hemorragia interna la noche del 4 de diciembre.

Louis Braille agonizaba mientras en las calles de París se alzaban barricadas y se luchaba en los bulevares. Una hemorragia interna mayor le confinó en cama el poco tiempo de vida que le quedaba. De la misma forma tranquila, metódica y reflexiva en la que condujo su vida, así mismo puso sus asuntos en orden, dispuso que su madre recibiera un ingreso mensual proveniente de sus ahorros, y que sus sobrinos recibieran el resto de su propiedad. Las pertenencias que guardaba en la Institución, las legó a Coltat, quien las distribuyó entre los alumnos de Louis, a manera de recordatorios.

Louis murió el 6 de enero de 1852, dos días después de cumplir cuarenta y tres años. No solamente le amaron y extrañaron quienes le conocían bien y recibieron los beneficios de su naturaleza honesta, cariñosa e inteligente, sino también muchos otros a quienes influenciara este maestro amable y cariñoso. Louis fue enterrado en Coupvray. Su cuerpo regresó por la misma ruta que tomara treinta y dos años antes cuando hizo su primer viaje a la Institución en la que realizaría la obra de su vida.

Pero el reconocimiento al trabajo de Louis Braille aún estaba por llegar. Durante las tres décadas siguientes, su nombre alcanzó fama mundial, como el mayor benefactor de los invidentes, el hombre cuyo trabajo marcaría el sendero por el cual millones de no videntes entrarían en una nueva vida , pues podrían leer y escribir, comunicarse, aprender y crear y ocupar su sitio en la sociedad como seres humanos con educación y cultura.

Biografia y obra científica de Robert Boyle Leyes y Experimentos

Biografía y Obra Científica de Robert Boyle 

Revolución Cientifica, Robert Boyle

Los experimentos de Boyle: ROBERT BOYLE (1627-1691),nació en Limore, Munster, Irlanda, en 1627, el menor de catorce hijos del conde de Cork, pero de la segunda esposa del conde, de una posición económica muy buena lo que le permitió acceder a los conocimientos científicos de esa época. En realidad tuvo una educación truncada, pero su mente siempre la mantuvo bien despierta por su pasión por la ciencia. En colaboración de Robert Hooke, concluyó que en los gases el volumen, la presión y la temperatura estaban vinculados muy estrictamente.

Boyle se dedicó a la física y la química, mostrando particular interés en las propiedades físicas de la atmósfera. Como decíamos antes , con la colaboración de su ayudante Robert Hook, un joven con conocimientos técnicos y capacidad suficiente para convertir las ideas de Boyle en modelos prácticos, perfeccionó la bomba de aire de Von Guericke que extraía aire de un cilindro.

La máquina de Boyle podía sacar aire de cualquier recipiente al que fuera conectada. Con su bomba Boyle realizó muchos experimentos con el objeto de determinar las propiedades físicas de la atmósfera. Demostró que el aire transmitía el sonido.

De muy joven viajó (1641) estuvo en Florencia, y se interesó por los trabajo del recién fallecido Galilei. Pasado tres años cuando volvió a Inglaterra, donde se reunía asiduamente con grupos de científicos, quien mas tarde formarían la Real Sociedad, institución que goza de la mejor reputación científica mundial.

 Robert Boyle (imagen arriba) (Lismore, 25 de enero de 1627 – Londres, 30 de diciembre de 1691)

Químico y físico irlandés, hijo del primer conde de Cork y séptimo varón de un total de 14 hijos. De muy joven, va a estudiar a Eton. Su intención es ingresar en la Iglesia, pero debe renunciar a ello a causa de su precario estado de salud. De Eton viaja por Europa durante seis años, a la vuelta de los cuales ha heredado el señorío de Stelbridge, en el que se establece. Fue uno de los primeros en conceder credulidad a las transformaciones propugnadas por los alquimistas. No en vano sus aficiones teológicas derivaron hacia una gran atención para con lo oculto. Funda el «Colegio Invisible», que perderá su carácter esotérico para convertirse en la «Royal Society» (1645).

Algunos historiadores británicos se han referido a Boyle como «el padre de la química», pero eso es llevar el orgullo nacional demasiado lejos. (Dadone el trabajo en equipo que suponen los descubrimientos científicos, es dudoso que nadie deba llamarse «el padre» de nada. Pero si a alguien le pertenece el título de «padre de la química» es al francés Lavoisier, que vivió un siglo después.)

Boyle no creó la química moderna, lo que hizo fue liberar a la química de parte del peso muerto que arrastraba del pasado y aclarar el camino para lo que llegaría después, sentando el principio de que los hechos químicos deben ser establecidos mediante experimentos, no por simples especulaciones de salón.

Los experimentos de Boyle, que llevó a cabo con la ayuda de ayudantes a sueldo, fueron muchos y variados. Usando la bomba de aire recientemente inventada, fue el primero en demostrar la aseveración de Galileo de que, en el vacío, una pluma y un trozo de plomo caen a la misma velocidad, y también estableció que el sonido no se transmite en el vacío. Su descubrimiento más importante gracias a la bomba de aire fue el principio (aún conocido corno Ley de Boyle en los países de habla inglesa) de que el volumen ocupado por un gas es inversamente proporcional a la presión con la que este gas se comprime.

Es decir, que si se dobla la presión, el volumen se divide por dos, y así sucesivamente; y también que, si se elimina la presión, el aire «recupera» (su propia palabra) su volumen original. Habiendo establecido que el aire era comprimible, Boyle se convenció de que éste estaba compuesto de pequeñas partículas separadas por espacio vacío. Todas estas ideas se publicaron en un libro con un título muy largo, que suele llamarseLa elasticidad del aire y que jugó un papel significativo para establecer la idea de la naturaleza atómica de la materia.

El libro más importante de Boyle, El químico escéptico, se publicó en 1661, y al año siguiente Boyle se convirtió en miembro fundador de la Royal Society. Fue en este libro donde apuntó la idea de que todas las sustancias podían ser divididas en ácidos, álcalis o neutros mediante el uso de lo que llamamos indicadores.

Aunque sus experiencias se desarrollaron dentro de un gran campo, tanto de la Física como de la Química, se centraron fundamentalmente en el aire, para lo que fue clave la máquina neumática ideada por Otto von Guericke. En estos experimentos contó con la colaboración de otro gran físico: R. Hooke.

Elementos químicos: Quizá la contribución más significativa de Boyle al desarrollo de lo que más tarde sería la ciencia química fue su concepto del elemento químico. La propia palabra no era nueva. Los griegos, siguiendo al filósofo Empédocles, la utilizaban para describir lo que consideraban las cuatro sustancias fundamentales del universo: la tierra, el aire, el fuego y el agua.

Aunque estos elementos no contenían un concepto científico en el sentido moderno, sino que eran más bien esencias místicas incluidas en toda materia viviente y no viviente, y que formaron la base del pensamiento humano sobre los procesos naturales durante dos mil años.

La idea de Boyle de un elemento químico era muy diferente. Para él, un elemento era una sustancia que no podía ser descompuesta en otras sustancias. Un elemento podía combinarse con otro y formar un compuesto; y un compuesto podía separarse en sus elementos constituyentes. Pero la prueba de lo que era o no era un elemento debía decidirse mediante un experimento práctico, no sólo por deducción.

Éste era un punto de vista moderno; y ayudó a crear el universo mental en el que habitarían los químicos posteriores. Pero hasta el propio Boyle fue incapaz de superar la influencia de tantos siglos de alquimia, ya que siguió creyendo en la posibilidad de transformar los metales comunes en oro. Y no rechazó los elementos antiguos… sólo quiso someterlos a la investigación experimental.

Descubrir los elementos: Mientras los científicos empezaban a adoptar esta nueva forma de pensar, los antiguos «elementos» eran abandonados poco a poco, y el término comenzó a ser utilizado tal como lo hacemos hoy. Pero la lista de sustancias a las que podía aplicarse el término en su sentido moderno era breve.

A finales del siglo XVII, y en ese sentido moderno de la palabra, sólo se reconocían 14 elementos. Nueve de ellos eran metales que se conocían desde la antigüedad: oro, plata, cobre, plomo, zinc, estaño, hierro, mercurio y antimonio. Dos eran elementos no metálicos, también conocidos por los antiguos: carbono y azufre. Dos más eran metales descubiertos en el siglo XVI, bismuto (en Europa) y platino (en Sudamérica). A estos trece, se agregó un nuevo elemento no metálico —el fósforo— descubierto en la orina por el propio Boyle en 1680.

En su obra «Sceptical Chymist» (1661) definió el cuerpo simple como el que no es susceptible de una descomposición ulterior, definición bien conocida por el papel que ha jugado en la historia de la Química. También mostró que el método pirognóstico, que hasta entonces se venía empleando en análisis, no es satisfactorio.

Aunque es cierto que estos 14 elementos se habían identificado a finales del siglo XVI, no lo es que fueron reconocidos como elementos en el sentido moderno del término. Cuando los químicos actuales hablan de elementos, utilizan la palabra en el sentido de ingredientes básicos de los que están compuestos los materiales del mundo. Para ellos, el aire es un compuesto de dos elementos —oxígeno y nitrógeno—, con pequeñas cantidades de otros gases. Uno de ellos, el anhídrido carbónico es considerado un compuesto de dos elementos, carbono y oxígeno.

Esta visión de la química como una colección de recetas, usando un pequeño número de ingredientes básicos, era absolutamente ajena a los filósofos naturalistas del siglo XVII. Aunque reconocían el cobre, el oro y el azufre como «elementos», para ellos también lo era el aire… y no estaban muy seguros acerca del fuego.

A diferencia de los astrónomos, que jugueteaban iluminados por el sol de la mecánica newtoniana, los químicos del siglo XVII todavía se movían en la oscuridad, buscando una luz que les iluminase el camino. Tardarían cien años más en encontrar su Newton particular y conseguir que la química adquiriera el lugar que le corresponde entre las ciencias naturales.

Leyes de Boyle

Presión volumen y temperatura: Justo antes de que Boyle publicase El químico escéptico, había anunciado la conclusión de algunos trabajos que había realizado con su ayudante Robert Hooke. Hooke había desarrollado un inflador de aire, y esto dio a Boyle la oportunidad de observar las propiedades mecánicas de los gases.

Pusieron una candela encendida en una jarra y después extrajeron el aire. La luz se apagó. El carbón incandescente cesaba de dar luz, pero empezaría a arder de nuevo si se introducía aire mientras el carbón estuviese aún caliente. Claramente, la combustión requería alguna propiedad física del aire. Además, colocaron una campana en la jarra y, de nuevo sacaron el aire. Ya no oían el sonido de la campana. Muchos de los resultados de Boyle le confundían, pero una cosa sí clarificó, y ésa era la relación entre la temperatura, la presión y el volumen de una cantidad fijada de gas. Si se comprimía el gas y se reducía su volumen, la temperatura crecía. Por tanto, la ley de Boyle manifiesta que para una masa fija de gas, la presión y el volumen son inversamente proporcionales.

libro de Boyle

La publicación de El químico escéptico marcó el comienzo de una nueva era en las pautas de
pensamiento de los científicos que luchaban para encontrar sentido al mundo físico.

GRÁFICAMENTE SE PUEDE EXPRESA ASI:

curva de boyle sobre gas

LEY DE BOYLE: Una masa de gas ocupa un volumen que está determinado por la presión y la temperatura de ese gas. Las leyes de los gases estudian el comportamiento de una determinada masa de gas, si una de esas magnitudes permanece constante. Boyle observó que cuando la presión aumentaba, el volumen se reducía, y, a la inversa, que cuando la presión disminuía, el volumen aumentaba. De esta manera la ley de Boyle establece que: El volumen de una determinada masa de gas, a temperatura constante, es inversamente proporcional a la presión de ese gas.

Fuente Consultada:
Historia de las Ciencias Desiderio Papp y Historias Curiosas de las Ciencias de Cyril Aydon

Centrifugado Aplicacion en los Ciclones Separador de Polvos

Centrifugado: Aplicación en los Ciclones

LA CENTRIFUGACIÓN
Una forma de separar las partículas que están suspendidas en un líquido consiste en dejarlo en reposo, con lo que dichas partículas se depositarán en el fondo al cabo de cierto tiempo, simplemente, por acción de la gravedad. Este proceso de separación, que se denomina decantación, es una operación frecuente en la industria.

Sin embargo, presenta graves inconvenientes; entre ellos, que se necesitan grandes depósitos para reposar los líquidos y que el tiempo de operación puede ser muy largo cuando las partículas que se trata de separar son excesivamente pequeñas, e incluso en ocasiones no se logra la decantación.

Para resolver estos problemas se desarrollaron las centrífugas, cuyo objeto primordial es el de aumentar por medios artificiales la fuerza de la gravedad que opera sobre el líquido y sus partículas, con lo que la tendencia de éstas a depositarse se multiplica paralelamente.

Esta gravedad artificial se logra por fuerza centrífuga, sometiendo la suspensión a un movimiento circular de gran velocidad. Se puede conocer y ajustar perfectamente a cada problema la fuerza correspondiente, que suele expresarse en unidades g o campos gravitatorios, es decir, una centrifugación a 2.000 g significa que se está aplicando al líquido una fuerza equivalente a 2.000 veces la fuerza de la gravedad.

Es interesante señalar que los datos de una operación expresados en revoluciones por minuto, como aparecen frecuentemente en publicaciones técnicas, no indican nado concreto, puesto que, por ejemplo, 5.000 r. p. m. en una determinada centrífuga proporcionan los mismos g que otra centrífuga distinta operando a 3.000 r. p. m. Esto sucede porque la fuerza centrífuga depende no sólo de la velocidad angular de la máquina, sino también del radio de giro.

La expresión matemática que relaciona todas estas velocidades es la siguiente:

formula centrifugado


en donde F, es la fuerza centrífuga expresada directamente en unidades gravitatorios g, S la velocidad de la máquina en revoluciones por minuto y R la distancia en centímetros del radio de rotación.

Por tanto, para reproducir un proceso de centrifugación que viene descrito en revoluciones por minuto, es necesario conocer la máquina (y por tanto, su radio de giro) que se ha utilizado. Con estos datos se calculan los g y se puede reproducir la operación en cualquier otra centrífuga parecida.

Con las centrífugas no sólo se ha resuelto la separación rápida de multitud de suspensiones, sino también el problema de los depósitos, puesto que existen centrífugas que operan a flujo continuo, es decir, entra el líquido por una parte en su interior y por otras salen los lodos o precipitados y el líquido clasificado.

El rendimiento de tales máquinas puede ser muy elevado, 50.000- o más litros por hora, lo que significa una gran economía en todos los aspectos (espacio, tiempo, materiales, etc.), aparte de la ventaja que supone en química industrial el poder realizar un proceso en régimen continuo.

Pero el adelanto en esta técnica ha llegado a límites insospechados. En la actualidad se dispone de centrífugas refrigeradas muy necesarias para la separación de materiales hábiles (sustancias biológicas, alimenticias, etc.). Por otra parte, existen centrífugas con las que se consiguen fuerzas centrífugas superiores a 200.000 g. (¡Doscientas mil veces la fuerza de la gravedad!) Estas máquinas suelen operar a vacío, ya que el rozamiento del aire impediría la enorme velocidad necesaria para alcanzarlas y, en el mejor de los casos, generaría una cantidad de calor excesiva.

Es fácil suponer que las posibilidades de separación que ofrecen estas centrífugas, cuya operación se puede programar y cumplir automáticamente, son inmensas. Incluso existen centrífugas, las centrífugas analíticas, que pueden separar las moléculas de diversos productos en solución verdadera (no en suspensión), a causa de sus diferentes pesos moleculares.

SEPARACIÓN DE POLVOS
Aunque existe un procedimiento clásico para separar sustancias pulverulentas por medio de tamices (cribas, con mallas de diverso espesor), tal sistema no se puede aplicar en muchas ocasiones.

En efecto, cuando se pretende recoger el polvo de una corriente gaseosa (aire, por ejemplo), bien para purificar dicho fluido c para aprovechar los sólidos que contiene, es difícil imaginar cómo podría conseguirse tal fin con unos tamices. En estos casos, se utilizan ciclones como el representado en la figura. El aire o gas cargado de polvo entra tangencialmente y a elevada velocidad en un cuerpo cilíndrico.

La fuerza centrífuga, creada por el movimiento rotatorio, despide el polvo hacia las paredes, donde, por choque, pierde la velocidad y cae, siendo recogido por la parte inferior, que tiene forma de tolva. El aire tratado sale por la parte superior.

Este procedimiento, cuya utilización era forzosa siempre que se presentaba un problema como el citado anteriormente, cada día es más utilizado, puesto que éste se ha hecho cada vez más frecuente. Hasta hace relativamente pocos años, el transporte de sustancias pulverulentas o gránulos finos en el interior de una fábrica se realizaba por medio de carretillas, zorras volcadoras, canjilones, etc.

Hoy día, las fábricas modernas utilizan cada vez más el transporte neumático, es decir, en el seno de una corriente de aire, porque ofrece claras ventajas (mayor automatismo, menor mano de obra, simplicidad técnica, pues el transporte de fluidos obedece a leyes muy definidas, etc.). Una aplicación más conocida de este sistema quizá sea la manipulación y carga de cereales (trigo) en los modernos silos y muelles.

En definitiva, el ciclón es, hoy día, un dispositivo de máxima actualidad. Una máquina muy parecida a la anterior, aunque algo más compleja, es el separador centrifugo. La diferencia con los ciclones reside en que, en este caso, el movimiento rotatorio del producto se obtiene mediante el rápido giro de un disco, al que acompaña también el de un sistema de paletas, cuya misión es crear corrientes de aire que permiten la clasificación del polvo; es decir, estos aparatos consiguen la separación y clasificación de polvo en partículas de diverso tamaño. En la figura adjunta se puede apreciar el esquema de uno de estos aparatos, que da idea de su funcionamiento.

Los separadores centrífugos de polvo se utilizan corrientemente en circuito con los molinos de finos, haciendo circular por el molino una corriente de aire que, a la vez que actúa como refrigerante, extrae el polvo, cuya presencia disminuye los rendimientos de la molienda. El aire cargado se pasa por el separador, el cual da una fracción gruesa, que vuelve al molino, y una fracción fina que se aprovecha directamente.

Ciclones separador de polvo

 

Fuente Consultada: Revista TECNIRAMA N° 67