Mecánica Clásica

Brillantes Científicos, Políticos y Músicos del Siglo XX

Brillantes Científicos, Políticos y Músicos del Siglo XX

Sigmund Freud

Sigmund Freud
1856-1939
Médico neurólogo austríaco, fundador del psicoanálisis. Tres años después de su nacimiento su familia se instala en Viena. Estudio fisiología en el Hospital General de Viena, donde alcanzó el título de médico. Se traslada a París y por un año estudia al lado de Charcot. Junto a este investigador francés especializado en las enfermedades del sistema nervioso, aprende la técnica de la hipnosis en el tratamiento de pacientes histéricos.

A partir de esa experiencia y del tratamiento de un caso de histeria mediante la hipnosis, Freud busca la forma de curar la histeria y los trastornos de la personalidad. Sin embargo, sustituye la hipnosis por la asociación libre de ideas por parte del paciente. Es éste el cimiento terapéutico del psicoanálisis.

Dicha terapia se sustenta en la idea de que los desórdenes de la personalidad, las neurosis y las psicosis tienen su origen en represiones localizables mediante la reconstrucción de la biografía psíquica del paciente. Para Freud, las represiones que marcan las perturbaciones mentales se ubican en la infancia y tienen carácter sexual.

Para su curación es necesario que el paciente las descubra por sí mismo, mediante la asociación libre conducida por el psicoanalista. La ruta del análisis la establecen dos formas distintas de estructurar la teoría de la personalidad. La primera distingue entre inconsciente, preconsciente y consciente.

La segunda estructura un modelo de la personalidad integrado por el ello, el yo y el superyo. Quizás, entre las numerosas obras de Freud, la fundamental es La interpretación de los sueños, donde establece de manera práctica el funcionamiento del método. También se destaca Tótem y tabú, donde el psicoanalista incursiona en la interpretación etnológica de origen de la cultura. Algunos observadores ubican la insuficiencia del psicoanálisis original de Freud en el hecho de que su teoría fue hecha en el marco sociohistóri-co de la Viena puritana del siglo XIX.

http://historiaybiografias.com/linea_divisoria3.jpg

Max Planck Creador Teoría de los Cuantos

Max Karl Planck
1858-1947
Físico alemán, criado en Munich. Su familia se destaca por un acendrado interés por la cultura. En principio se sintió atraído por la música y estuvo a punto de seguir ese camino. Sin embargo, la intervención de sus profesores, quienes habían advertido sus capacidades matemáticas, fue suficiente para persuadirlo hacia los estudios en física teórica. Pronto alcanza la fama por sus importantes trabajos de investigación.

Pero su contribución fundamental parte de la incapacidad del modelo teórico tradicional de la física para explicar la irregular distribución de la energía entre las longitudes de onda de la radiación. Planck sustituye el presupuesto de la explicación tradicional, que requiere de complejas fórmulas y propone que la radiación se compone de pequeñas partículas que denomina cuantos.

Planck afirma que la energía emitida es proporcional a la longitud de onda de la radiación, relación en la cual actúa una cifra conocida como constante de Planck. El descubrimiento que hace Planck, mediante desarrollos como su constante, permite hallar relaciones científicas entre el comportamiento de los átomos y otros fenómenos de la naturaleza,.aparentemente lejanos. Planck es conocido como un hombre muy sensible.

Se opone firmemente al régimen de Hitler, protege a sus colegas de origen judío y debe soportar la ejecución de uno de sus hijos por participar en un atentado para asesinar al dictador. Trabaja como profesor de física en la Universidad de Munich, Kiel y Berlín. Recibe el Premio Nobel de física en el año 1918.

http://historiaybiografias.com/linea_divisoria3.jpg

Gandhi lider espiritual de la india

Gandhi
1869-1948
Político y pensador hindú. Su nombre completo es Mohandas Karamchand Gandhi, conocido como Mahatma. Graduado en derecho en la Universidad de Oxford en 1891, ejerce en Bombay durante dos años. En Sudáfrica se relaciona con grupos de defensa de los hindúes emigrados que luchan contra los boers. Es influido por la doctrina jainista de la “no-violencia” y por el pacifismo de León Tolstoi.

Funda el semanario Indian Opinión (1904), que resume su ideología de la fidelidad absoluta a los ideales de la propia conciencia hasta llegar al punto de la desobediencia civil dentro de los límites de la no-violencia. Recibe la influencia del movimiento nacionalista hindú, Iniciado a comienzos del siglo. Detenido varias veces en Sudáfrica, regresa a la India en 1915. Tras la Primera Guerra Mundial y cuando el gobierno inglés decide continuar su dominio sobre la India, comienza su primera campaña de desobediencia civil en 1919, bajo la ideología del Satyagraha (resistencia pasiva) como un medio de conseguir la aspiración nacionalista del autogobierno. Su boicoteo a los productos importados de Inglaterra fomenta la industria hindú.

Después de la matanza de Amritsar en abril de 1919, incrementa su campaña de resistencia pasiva. Encarcelado en 1921 y liberado tres años más tarde. En 1924 dirige el Partido del Congreso, que lucha contra los Ingleses; es encarcelado de nuevo en 1930 en una protesta antibritánica, y en 1934 fracasa su segunda campaña. El Parlamento Inglés reconoce la representatividad institucional de la India, pero niega su independencia.

Es detenido otra vez e inicia sus ayunos de seis días, encaminados a mejorar el trato que le dan las autoridades a la casta de los parias. Apresado en 1935, continúa con su movimiento y se radica en Yardhá en 1936. Durante la Segunda Guerra Mundial rechaza el ofrecimiento del imperio británico de crear un gobierno hindú “semi autónomo”. Cuando lidera el movimiento India Libre en 1942, lo confinan con su esposa, que muere en la prisión. Negocia con los dos últimos virreyes Percival Wavell y Louis Mountabatten un acuerdo que sella la independencia de la India en agosto de 1947.

Su programa fracasa en el Congreso porque no logra el apoyo de los musulmanes.

Gandhi es asesinado por un fanático mientras pasea por los jardines de Birla House en Nueva Delhi. Esto produce la división del territorio en el subcontinente hindú y la zona noroccidental, de mayoría musulmana, que recibe el nombre de Pakistán.

http://historiaybiografias.com/linea_divisoria3.jpg

Lenin Lider politico ruso

Lenin
1870-1924
Vladimir llich Uliánov, conocido como Lenin. Revolucionario, teórico marxista y jefe de Estado comunista. Hijo de un inspector de escuelas del distrito, se educa en un ambiente de ideas liberales. Su hermano Alejandro fue ejecutado por conspirar contra el zar Alejandro III. Lenin estudia derecho en la Universidad de Kazan, de donde es expulsado por sus ideas revolucionarias; viaja a San Petersburgo (hoy Leningrado), reanuda sus estudios y se gradúa.

No ejerce su profesión y se dedica al movimiento revolucionario. Varias veces fue encarcelado, finalmente es recluido en Siberia entre 1897 y 1900, de donde escapa al extranjero. Forma parte del movimiento socialdemocrático, inspirado en el marxismo, que reconoce el capitalismo como el antecedente obligatorio de la revolución proletaria. Lenin disiente de los socialdemócratas y de su alianza con los intelectuales liberales para derrocar al zarismo, su doctrina se aleja del programa liberal y propone la radicalización de la lucha de clases.

Lenin propone la violencia y el terrorismo como método de acción política y arma de los ideales revolucionarios y llama al pueblo a derribar y a ajusticiar a la monarquía en su obra Dos tácticas (1905).En 1917 el zarismo cae con la revolución y Rusia tiene un gobierno socialista. Lenin insiste en su doctrina política y busca apoyo en Alemania, regresa a Rusia y funda el diario Pravda. Intenta derrocarlo y el 7 de noviembre se toman los organismos del Estado, consigue ser nombrado presidente del consejo de los comisarios del pueblo. A principios de 1918 los bolcheviques se han afirmado áh el poder, tras la disolución de la Asamblea constituyente.

El Soviet aprueba el golpe de Estado y en marzo firma el Tratado de paz de Brest-Litovsk. Lenin nacionalizó las tierras, las industrias y restableció la antigua policía de los zares. Retoma ideas básicas del marxismo para su modelo de gobierno, tales como la prevalencia del Estado, la dictadura del proletariado. Más que establecer el comunismo, entrega la dirección de la economía al Estado y plantea el marxismo-leninismo. Una parálisis progresiva causada por una vieja herida de bala y el excesivo trabajo, lo obliga a dejar el poder, que delega en Stalin, secretario general del Partido.

Entre sus obras están Desarrollo del capitalismo en Rusia (1899), ¿Qué hacer? (1902), El imperialismo, estado supremo del capitalismo (1916), El Estado y la revolución (1917) y La enfermedad infantil del comunismo, el izquierdismo (1920).

http://historiaybiografias.com/linea_divisoria3.jpg

Churchill Politico Británico

Winston Churchill
1874-1965
Político, estadista, escritor y militar inglés. Corresponsal de guerra en Cuba en 1896, India en 1897, Sudán en 1898.

Elegido diputado por Oldham por el Partido Conservador en 1900. En 1904 ingresa al Partido Liberal, que ocupaba el poder, por diferencias con los conservadores. Planea la campaña de Gallípoli en 1915, que pretende apartar a Turquía del conflicto, pero por la oposición de los militares y políticos ingleses es destituido de su cargo en el almirantazgo y enviado a Francia como comandante de un regimiento.

En 1924 se reintegra al Partido Conservador y es nombrado lord canciller del Tesoro entre 1924 y 1929, desde donde adopta el patrón oro para Inglaterra. Reprime por la fuerza la huelga de los sindicatos en 1926. Al estallar la Segunda Guerra Mundial, Arthur Neville Chamberlain lo nombra primer lord del almirantazgo. Es nombrado primer ministro, en reemplazo de Chamberlaln, el 10 de mayo de 1940, día de la invasión alemana a los Países Bajos. Forma un gobierno de concentración nacional con la participación del Partido Laborista y Conservador, y expone su programa de “sangre, trabajo, sudor y lágrimas”.

Después del ataque japonés a Pearl Harbour y la invasión alemana a la Unión Soviética, se entrevista con Stalin en junio de 1941 y se compromete a ayudarlo; firma con Theodor Roosevelt la Carta del Atlántico, que consolida el triunvirato que derrota al Eje conformado por Alemania, Japón e Italia. Representa a su país en las conferencias de Teherán en 1943, Yalta y Postdam en 1945.

Al finalizar la guerra y pese a su inmensa popularidad, pierde las elecciones de 1946 frente al candidato Clement Richard Attlee, del Partido Laborista, pero continúa al frente del partido de oposición. Reelegido en 1951 para la primera magistratura, se retira el 5 de abril de 1955 alegando razones de salud. Miembro de la Cámara de los Comunes entre 1959 y 1964. Recibe el Premio Nobel de Literatura en 1953.

http://historiaybiografias.com/linea_divisoria3.jpg

Albert Einstein Fisico Aleman

Albert Einstein
1879-1955
Durante su juventud nadie sospechaba que ese escolar común y corriente, con algún buen rendimiento en matemáticas, fuera capaz de transmutar los conceptos de espacio y tiempo que rigen la física desde Isaac Newton.

Lleva a cabo sus estudios en Munich, y marcha con su familia a Italia y Suiza. En Berna, es empleado de la Oficina de Patentes, donde realiza un trabajo rutinario y ligero. Su tiempo libre lo dedica a resolver problemas de física sobre el papel. Sin embargo este trabajo teórico va tan lejos que hace tambalear los postulados básicos de la ciencia.

En 1905 Einstein publica su Teoría Especial de la Relatividad, donde plantea que el valor del tiempo, la masa y el espacio dependen del movimiento relativo entre observador y el objeto de estudio. Diez años después publica la Teoría General de la Relatividad. Sus descubrimientos permiten conocer la gran cantidad de energía que puede liberar una cantidad pequeña de masa, fundamento de la bomba atómica.

Dicho saber, en poder de los Estados Unidos, permite los genocidios de Hiroshima y Nagasaki, durante la Segunda Guerra Mundial, a pesar del esfuerzo de última hora hecho por el sabio alemán. Con el acceso de Hitler al poder, Einstein se ve forzado a abandonar su patria, y se va hacia Bélgica y, finalmente, a los Estados Unidos. Fue el ganador del Premio Nobel de física en 1921. Enseñó en Zurich, Praga y Leiden. Fue catedrático en la Universidad de Berlín, durante 20 años.

Finalmente, trabajó como investigador del Instituto para Estudios Avanzados de Princeton, hasta el momento de su fallecimiento.

http://historiaybiografias.com/linea_divisoria3.jpg

Juan XIII Papa Vaticano II

Juan XXIII
1881-1963
Pontífice romano, nace en el seno de una familia de labriegos pobres. Angelo Guiseppe Roncalli, su verdadero nombre, se dedica desde temprana edad a las labores del campo, y estudia en la escuela de Cervico. Luego va al seminario de Bérgamo pero no puede ordenarse sacerdote al concluir sus estudios debido a su juventud. Entre tanto, estudia en el Ateneo Sant’Apollinare y presta el servicio militar.

En 1904 se ordena sacerdote y al año siguiente el obispo de Bérgamo, Va al frente durante la Primera Guerra Mundial como teniente-capellán.

Al término del enfrenta-miento retoma a Bérgamo y se encarga de la dirección espiritual del seminario. En 1920 se traslada a Roma y allí trabaja para la Congregación de Propaganda Fide. En 1944 lo trasladan a la nunciatura de París y en 1953 lo nombran cardenal y patriarca de Venecia. En 1958 lo eligen Papa e inicia la organización del Concilio Vaticano II que lleva a cabo en 1962. Publica dos encíclicas Mater et Magistra y Pacem en Terris.

http://historiaybiografias.com/linea_divisoria3.jpg

Fleming Penicilina

Alexander Fleming
1881-1955
Bacteriólogo británico. Estudia medicina en Londres. Durante la Primera Guerra Mundial sirvió en Francia como capitán de sanidad. Bacteriólogo de la Saint Mary’s Medical School, se interesa en el estudio de las bacterias y en 1922 descubre la lisozima, substancia con efectos antibacterianos, presente en las lágrimas, la saliva y la albúmina de huevo. Sigue investigando la lisozima y descubre la penicilina por accidente en 1928.

En 1939 descubre que el moho penicillium notatum actúa sobre los gérmenes. Sin embargo, no alcaza a entregar el proceso de purificación de la pe-nicillan pues carece de las técnicas, que tienen en Oxford Howard Walter Florey y Ernest Boris Chain. La utilización de la penicilina en un ser humano se realiza por primera vez en 1941.

Fleming expone el proceso en su libro La penicilina y sus aplicaciones prácticas (1946). Es galardonado con el Premio Nobel de Medicina en 1945, compartido con Florey y Chain.

http://historiaybiografias.com/linea_divisoria3.jpg

Delano Roosevelt Politico de EE.UU. Presidente

Franklin Delano Roosevett
1882-1945
Político y estadista estadounidense. Estudia derecho en las universidades de Harvard y Columbia. Elegido senador por Nueva York entre 1910 y 1911, trabaja como subsecretario adjunto de marina de 1913 a 1920. Propone su nombre para la vicepresidencia en 1920, pero es derrotado. Regresa a la política y es elegido gobernador de Nueva York en 1928. En 1932 es elegido presidente de su país por el Partido Demócrata.

Realiza reformas en obras públicas para recuperar la industria y apoyar a los agricultores, conocidas como New Deal (Nuevo Pacto), con las que el país supera la gran depresión de 1929. Reelegido en 1936, centra su política en la ayuda a Francia y Gran Bretaña, países a los que vende armas en prevención de la Segunda Guerra Mundial y aprueba empréstitos a naciones estratégicas. Elegido de nuevo en 1940, firma con Wlnston Churchill la Carta del Atlántico en 1941.

Tras el ataque a Pearl Harbour el 7 de diciembre de 1941, declara la guerra a Japón y Alemania, coordina el esfuerzo bélico y la unidad de los aliados en las conferencias de Casablanca, Quebec, El Cairo, Teherán y Yalta e interviene en la conferencia de Dumbarton Oaks en 1944, que acuerda la creación de la ONU, Organización de las Naciones Unidas. Gana las elecciones otra vez en 1944 y se convierte en el único presidente en la historia de los Estados Unidos que ocupa el cargo en cuatro ocasiones consecutivas.

http://historiaybiografias.com/linea_divisoria3.jpg

Hitler Adolf Lider aleman de la segunda guerra mundial

Adolf Hitler
1889-1945
Hitler, fue jefe del movimiento nacional-socialista alemán y canciller del Reich. Hijo ilegítimo. En su juventud cree que tiene aptitudes para la pintura, pero sólo logra dibujar postales baratas. Se hace ciudadano alemán en 1932. Participa en la Primera Guerra Mundial como estafeta y gana la Cruz de Hierro en dos ocasiones y es ascendido a cabo.

Ingresa en el partido de los Trabajadores Alemanes en 1919, del cual en 1921 es presidente. Le cambia el nombre por el Partido Nacional Socialista de Trabajadores Alemanes con una Ideología ultranacionalista, antiparlamentaria y de regeneración social, fuera de los lineamientos comunistas. Tras el fracasado, intento de golpe de Estado, en Bürgerbráu de Munich en 1923, es encarcelado en Landsberg.

Durante su permanencia en prisión, escribe la autobiografía Mi lucha. La crisis económica de 1929 hace cambiar de forma radical la dirección ideológica alemana y favorece la tesis del partido nazi en contra de los judíos, a quienes acusaban del descalabro económico, del desempleo y de haberse apoderado del Alemania.

Con la muerte de Híndenburg en 1934 se nombra Führer. Asume el mando de los ejércitos alemanes, anexa Austria en 1938, invade Checoslovaquia en 1939 y desencadena la Segunda Guerra Mundial. En 1940 se apodera de Dinamarca, Bélgica y Holanda, que capitulan poco tiempo después. Ese año, tras la declaración de guerra de Italia contra Francia e Inglaterra, se firma en junio el armisticio franco-alemán y franco-italiano.

Después del ataque japonés a Pearl Harbour el 7 de diciembre de 1941, con Japón e Italia, países con los cuales conforma el Eje, declara la guerra a Estados Unidos, que se había mantenido al margen del conflicto bélico. Aunque en un comienzo invade Polonia, los Países Bajos y Francia, su avance es detenido tras el fracaso de Stalingrado en 1943 y la resistencia de Inglaterra.

Se niega a aceptar la derrota de sus ejércitos y se recluye en un refugio subterráneo de la cancillería. Se suicida con su esposa Eva Braun el 30 de abril y sus cadáveres son quemados por agentes de su guardia de SS, Schutzstaffeln, la policía secreta.

http://historiaybiografias.com/linea_divisoria3.jpg

charles de gaulle presidente de francia

Charles de Gaulle
1890-1970
Estadista y militar francés, primer presidente de la V República francesa. Participa en la Primera Guerra Mundial, en la que es herido varias veces y hecho prisionero por lo alemanes en la batalla de Verdún en 1916. En 1940, como general, recibe el mando de la IV división acorazada. Ante la invasión alemana se niega a firmar el armisticio, sale de Francia el 18 de junio de 1940 y se refugia en Inglaterra. En una dramática alocución desde la BBC de Londres, insta al pueblo francés a combatir a los invasores alemanes por medio de la resistencia civil y se convierte en el jefe del movimiento, que resulta decisivo en la guerra.

Con la liberación de Francia, De Gaulle se consolida como presidente del gobierno provisional. Se retira en 1946 contrariado por no poder realizar algunos planes suyos respecto de la política de su país. Con el apoyo de su partido es elegido presidente el 21 de diciembre de 1958.

En 1960 prueba la bomba atómica sobre el desierto del Sahara. Promulga una nueva Constitución e inaugura la V República, concede la independencia argelina en 1962, promueve el desarrollo económico como puerta única de solución a los problemas de Francia. Reelegido en 1965, enfrenta la crisis de Mayo de 1968, cuando los estudiantes y obreros protagonizan una huelga que paraliza el país. Para el siguiente período es derrotado por un escaso margen y poco antes de morir se retira de la vida política.

http://historiaybiografias.com/linea_divisoria3.jpg

Ho Chi Minh lider vietnamita

Ho Chi Minh
1890-1969
Estadista y revolucionario vietnamita. Su verdadero nombre es Nguyen Tat-Thanh y su apodo Ho Chi Minh significa “El que ilumina”. Recorre el mundo como ayudante de cocina en un buque francés. Fotógrafo en Londres dessde 1914 y en París desde 1917, cuando se afilia al Partido Socialista. Se incorpora el Partido Comunista francés en 1921, colabora con los periódicos L’Humanité y Le Populare, bajo el seudónimo de Nguyen Al Quoc.

Hecho prisionero en China en 1942, se establece en Tonkín para organizar las guerrillas en 1943. Después de la capitulación japonesa, se apodera de’Hanoi, derroca al emperador Bao Dal y proclama la República Independiente y Democrática de Vietnam el 2 de septiembre de 1945.

Firma el acuerdo Ho Chi Ming-Sainteny, por el cual Francia reconoce viaja a París para ratificar el acuerdo en la Conferencia de Fontainebleau, los franceses intentan restablecer su dominio colonial y declaran la guerra. Mao Tse-tung le envía desde China armamento y le da apoyo táctico y estratégico.

La Conferencia de Ginebra divide al país en 1954. Establece la República Socialista de Vietnam al norte del paralelo 17. Es secretario general del Partido, jefe del gobierno y presidente hasta 1955. Reelegido secretario general del Partido entre 1957 y 1960, mientras apoya las guerrilla comunistas que luchan contra el dictador Ngo Dinh Diem en Vietnam del Sur.

En 1962 crea el FNL, Frente Nacional para la Liberación del Sur que acrecienta la violencia en el territorio vietnamita. Estados Unidos interviene en la guerra el 5 de 1965, aunque desde finales de febrero de 1962, aunque desde finales de 1962 había 8.000 soldados estadounidenses en el Sur y el Gobierno de John F. Kennedy suministraba armas y dinero a la dictadura Diem.

http://historiaybiografias.com/linea_divisoria3.jpg

Mao tse Tung Lider chino Larga Marcha

Mao Tse-tung
1893-1976
Político, revolucionario, escritor y poeta chino. Hijo de terratenientes, participa en la revolución de 1911 junto al ejército republicano. Estudia derecho y filosofía. Entra en la Academia de Policía y en la Escuela de Peritaje Industrial. En 1927 organiza la lucha campesina. A pesar de que los nacionalistas intentan reprimir el movimiento, con la primera división del ejército rojo proclama la República Soviética de Kiangsi, siendo elegido presidente en 1931.

Rodeado por las tropas nacionalistas, inicia la “Larga Marcha” con cerca de cíen mil hombres. En 1935 el Politburó lo nombra secretario del Comité Central del Partido y establece la República Soviética de Yenan, tras haber recorrido más de 10.000 kilómetros para expulsar a los japoneses de China. Estalla la guerra civil en 1946, que dura tres años, al final de la cual y tras las campañas de Manchuria y Pekín-Tientsin, proclama el 1 de octubre de 1949 la República Popular de China.

En 1950 firma con Stalin un tratado de ayuda, amistad, alianza y asistencia mutua. Elegido presidente en 1954. Cuando el XX Congreso del Partido Comunista de la Unión Soviética, condena la memoria de Stalin, Mao declara rota la alianza con Moscú en 1956. Lleva a cabo la “Campaña de las Cien Flores” en 1957 e inicia el período de “El gran salto adelante” en 1958. Cede la presidencia a Luí Chaochi.

En 1965 se traslada a Shangai, donde inicia la revolución cultural, contra lo que señala como tendencias y elementos burgueses del sistema político de su país. En 1973 es reelegido en su cargo. Escribe el Libro Rojo, Acerca de la práctica, Nueva democracia, otros ensayos y poemas.

http://historiaybiografias.com/linea_divisoria3.jpg

Von Braun Cientifico aleman creador del saturno 5

Wernher von Broun
1912-1974
Ingeniero alemán. Miembro de una familia aristocrática, su padre poseía un título nobiliario. Es enviado a Zurich para iniciar sus estudios. Regresa a Alemania con el fin de seguir su carrera. Estudia ingeniería y ciencias físicas en la Universidad de Berlín. Siendo un estudiante conforma la Sociedad Alemana para los Vuelos Espaciales, al lado de un grupo de entusiastas. Con ellos, lleva acabo una serie de lanzamientos de cohetes experimentales, alcanzando altitudes de 1.500 m.

Durante los años treinta participa en los experimentos sobre aplicaciones militares de los cohetes. Con ocasión de la Segunda Guerra Mundial diseña en el laboratorio de Peenemünde los cohetes V-2, con los que se efectúan mortíferos bombardeos. Al finalizar la guerra se radica en los Estados Unidos, donde su atención por los cohetes vuelve a encaminarse al viejo anhelo de viajes espaciales.

Es vinculado, pues, al programa espacial. A partir del V-2 llega al cohete de cuatro fases. Todos los adelantos de los años cincuenta y sesenta se deben al ingeniero alemán, quien culmina sus aportes con el programa Apolo, del que forma parte el cohete Saturno V, que lleva al hombre a la Luna.

También a él se debe el diseño de las condiciones del alunizaje, mediante el módulo Águila que se desprende de la última fase del cohete y desciende a la superficie. El Saturno V mide 110 m. y sus motores alcanzan un empuje de tres y media toneladas en el momento del lanzamiento. Su siguiente paso es un proyecto para efectuar un viaje tripulado a Marte, suspendido por recortes al presupuesto de la NASA. Sus últimos años los dedica a trabajar para la empresa privada.

http://historiaybiografias.com/linea_divisoria3.jpg

Cientificos descubridores de la estructura del adn

Francis Crick
1916-
Jomes Wotson
1928-
Francis Crick se especializa en biofísica, mientras que James Watson, natural de los Estados Unidos, trabaja como biólogo. Emprenden el estudio del ácido desoxirribonu-cleico (ADN). De éste ya se sabía que su molécula era de gran tamaño y que intervenía en los procesos hereditarios. Sin embargo, desconocía su estructura y el proceso exacto mediante el cual incidía en la herencia.

Watson se establece en Inglaterra, para trabajar en el laboratorio Cavendish de Cambridge. Inicia investigaciones sobre la estructura de las proteínas y en compañía de Crick, del ADN. Desde el instituto de California de Tecnología, Linus Pauling afirma que el ADN tiene una estructura helicoidal simple. Crick y Watson intuyen que la estructura es doble e intentan demostrarlo sin éxito, mediante pruebas cristalográficas aportadas por Maurice Wilkins.

Finalmente, descubren que la molécula está formada efectivamente por un doble helicoide de citosina emparejada con guanina y de adenina con timina.

Cada componente se encuentra en proporciones iguales. El descubrimiento implica que los dos cordones son complementarios y cada uno es modelo para la síntesis del otro. El descubrimiento explica cómo se divide una célula en dos copias idénticas de la misma y cómo se almacena la información genética, mediante los genes. Crick y Watson reciben en 1962 el Premio Nobel de Medicina.

http://historiaybiografias.com/linea_divisoria3.jpg

Kennedy John Presidente de los EE.UU.

John F. Kennedy
1917-1963
Político estadounidense. Estudia ciencias políticas en Londres y en la Universidad de Harvard. Sirve en la marina y obtiene el grado de teniente. Es herido durante la Segunda Guerra Mundial al sur del Pacífico. En 1945 es corresponsal de la revista News Service en la Conferencia de Postdam. Inicia su carrera política en 1946. En 1952 es elegido senador por Massachusetts. En 1960 gana las elecciones presidenciales sobre el republicano Nixon. Apoya iniciativas como la Alianza para el Progreso y la conquista del espacio exterior.

En 1961 intenta invadir la isla de Cuba y derrocar el gobierno de Fidel Castro, pero es rechazado en Bahía de los Cochinos. Ese mismo año apoya la acción militar de las Naciones Unidas en el Congo y se reúne en Viena con Nikita Kruschov, con quien firma un tratado para el control de la producción y uso de armas nucleares. En los asuntos internos lucha contra el racismo y por la igualdad de los derechos civiles. Muere asesinado por Lee Harvey Oswald.

http://historiaybiografias.com/linea_divisoria3.jpg

Fidel Castro lider de la revolucion cubana

Fidel Castro
1926-2016
Político cubano. Estudia derecho en La Habana y se doctora en 1950. En 1947 intenta dar un golpe de Estado al dictador dominicano Rafael Leónidas Trujillo. Después de ser candidato en las elecciones anuladas por el golpe de Estado de Fulgencio Batista en 1952 y convencido de que los medios democráticos no funcionan en un régimen dictatorial, el 26 de julio de 1953 organiza el fracasado asalto al cuartel Moneada. Es hecho prisionero con su hermano Raúl y es absuelto en el juicio, pues asume su propia defensa. Indultado por el dictador, se refugia en México en 1955.

El 2 de diciembre de 1956 desembarca en Cuba con un grupo de guerrilleros. El 8 de enero de 1959 entra en La Habana, en medio de la deserción del Ejército de Batista. En un principio recibe ayuda de Estados Unidos, pero rompen relaciones cuando Castro promulga una ley de reforma agraria que lesiona intereses económicos estadounidenses.

En 1961 se produce la frustrada invaclón de Playa Girón, dirigida por la CIA. Tras declarar a Cuba República Democrática Socialista, sufre el bloqueo económico y diplomático de Estados Unidos y la OEA (Organización de Estados Americanos). Se apoya en la Unión Soviética para su comercio e implanta en la isla un régimen comunista. En octubre de 1965 conforma el Partido Comunista Cubano, que asume el poder, al estilo de os países de Europa del Este.

A partir de 1973 realiza en Cuba la Conferencia de Países No Alineados y en 1975 envía tropas cubanas a Angola, África. Desaprueba la política de Mijail Gorbachov, por lo cual sus relaciones con la Unión Soviética se deterioran. A partir de diciembre de 1976 es presidente del Consejo de Estado y jefe de las fuerzas armadas.

http://historiaybiografias.com/linea_divisoria3.jpg

Luhter King Pastor defensor de los derechos de los negros en EE.UU.

Martin LutherKing
1929-1968
Líder de la raza negra contra la discriminación racial en Estados Unidos. Estudia teología en la Universidad de Boston. Se ordena pastor de la Iglesia Bautista. Funda la Conferencia de Dirigentes Cristianos del Sur, y la Asociación Nacional para el Progreso de la Gente de Color. Desde 1954 es diputado de la ciudad de Montgomery.

Contra las afirmaciones de algunos grupos partidarios de la violencia, opta por asumir la protesta pacífica y encabeza varias marchas multitudianarias, que le granjean la animadversión de los grupos de blancos del sur de Estados Unidos.

En 1963 se produce la “Marcha sobre Washington”, que congrega protestantes negros y blancos en la capital de la Unión. Ese año recibe el Premio Nobel de la Paz. Muere asesinado por el blanco James E. Ray, cerca de Memphis, donde preparaba una concentración masiva.

http://historiaybiografias.com/linea_divisoria3.jpg

Mijael Gorbachov Ruso

Mijail Gorbachov
1931-
Político y estadista soviético. Estudia derecho y agronomía. Ingresa en el Partido Comunista en 1955. En 1967 contrae matrimonio con Raisa Gorbachov. Miembro del Comité Central del Partido Comunista en 1971 y en 1980 forma parte del Polltburó, máximo órgano colegiado del partido. A la muerte de Leonid Brezhnev en 1983, el Kremlin es dirigido por Yuri Andropov, quien muere en 1984 y es sucedido por Konstantin Chemenko.

Chemenko fallece y Gorbachov llega al poder en 1985. Nombrado secretario general del PCUS. Su política de glasnost y perestroika, “reestructuración” y “transparencia”, amplía los horizontes políticos de su país. Promulga la necesidad de abrir la economía centralista a la iniciativa privada.

Se reúne en varias ocasiones con el presidente estadounidense Ronald Reagan y los dirigentes de Occidente, y firma importantes acuerdos sobre reducción de armas convencionales y nucleares. Desaparecen la Cortina de Hierro y el muro de Berlín y se reunifican las dos Alemanlas. Afronta la crisis separatista de las repúblicas bálticas de Estonia, Lituania y Letonia, que declaran la soberanía y desafían la retaliación de las fuerzas armadas soviéticas. Reforma la estructura de poder en la Unión Soviética, crea la presidencia del país y un Parlamento elegido con la participación de fuerzas diferentes del Partido Comunista.

Termina la guerra fría y el orden internacional basado en la confrontación Este-Oeste. Tras un fracasado golpe de Estado el 18 de agosto de 1991, se desintegra la Unión de Repúblicas Socialistas Soviéticas.
Ante la disolución de lo que fuera la URSS, Gorbachov renuncia a su cargo pocos días después.

http://historiaybiografias.com/linea_divisoria3.jpg

los beatles grupo musical años 60

The Beatles
1962- 1970
Agrupación inglesa de música rock, una de las más famosas de todos los tiempos. Como conjunto nace en Liverpool con John Lennon (1940-1980), Paul McCartney (1942), George Harrison (1943) y Ringo Starr (Richard Star Key, 1940). Se inician con el nombre The Quarrymen (1956) con Pete Best y Stu Stucliffe y luego como The Silver Beatles (1960). Con el ingreso de Ringo Starr reemplazando a Best, comienzan tocando en pequeños clubes al estilo de moda.

Gracias a la presencia de Brian Epstein {manager comercial) y a George Martín (asesor musical), en agosto de 1962 hacen su primera grabación, Love me do. Con el segundo disco, en el mismo año, Please, please me, se colocan en el primer lugar en las listas de éxito. De ahí en adelante alcanzan los máximos records en ventas de discos, viajan a lo largo de Europa y América y se convierten en ídolos de multitudes.

Las melodías que crean intuitivamente constituyen una música sin sobresaltos ni armonizaciones confusas. El grupo se disuelve en 1970 por la diversidad de intereses de sus integrantes. Muchas de sus canciones han sido reproducidas en más de cuatro mil versiones y ellos, como personas y músicos, han sido copiados, imitados y estudiados. Tema como Let it be, Now-hereman, Norwegian Wood, A Day in the Ufe, Yesterday, She’s living home, Micele, etc., son verdaderas creaciones en el género de la música pop.

Fuente Consultada: Magazine Enciclopedia Popular Año 3 N°36 Resumen del Libro: “Los Hombres Que Cambiaron El Mundo”

Conceptos Básicos de Electrostática Cargas Eléctricas

EXPERIMENTO CON CARGA ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar. Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos. Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto. Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro. La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente. Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador. el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco. Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico. Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

Historia del Estudio del Aire Atmosférico Tabla de Composición

CUADRO DE COMPOSICIÓN DEL AIRE E HISTORIA DE LA INVESTIGACIÓN

En la actualidad, está plenamente reconocido el hecho de que el aire es una mezcla. Una mezcla, sin embargo, de peculiares características, pues la proporción en que entran sus distintos componentes principales (oxígeno, nitrógeno y gases nobles) permanece constante. El aire contiene también, en proporciones variables, anhídrido carbónico, vapor de agua y óxidos de nitrógeno. Tanto la propia naturaleza como la verdadera composición del aire han sido determinadas en los últimos doscientos años.

Tabla Composicion del Aire

A lo largo de los 2.000 años precedentes se hicieron pocos progresos en este sentido; no hay noticia de que se hubiera realizado experimento alguno dirigido a confirmar las teorías que en esos momentos se formulaban. Los alquimistas de la época estaban tan ocupados en la búsqueda de la piedra filosofal, que los aspectos teóricos e improductivos de la química, tales como el que nos ocupa, merecían escasa atención.

En el siglo V a. de C, un filósofo griego, llamado Empédocles, expuso la teoría de que todas las cosas del universo estaban compuestas de cuatro principios elementales: tierra, aire, agua y fuego. Cada uno de estos cuatro elementos representaba una combinación de dos de las cuatro propiedades básicas: la tierra era seca y fría; el agua, fría y húmeda; el aire, húmedo y caliente; mientras que el fuego era caliente y seco.

Esta teoría fue elaborada por Aristóteles, uno de los más importantes filósofos griegos, que vivió en el siglo IV a. de C. Según él, un elemento podía trasformarse en otro y, así, el agua se convertía en tierra al solidificarse, y en aire, al hervir.

La teoría de los cuatro elementos subsistió cerca de dos mil años. En 1661. Robert Boyle desechó la idea de que toda ia materia estuviese compuesta de sólo cuatro elementos. Sin embargo, seguía atrayéndole la idea de que todas las sustancias fuesen combinaciones de un número mayor de elementos, los cuales, según su criterio, habrían de ser sustancias que no pudieran descomponerse en otras más simples.

Este fue el primer paso positivo hacia la teoría atómica, aunque habían de trascurrir todavía 150 años antes que John Dalton publicase su idea de los átomos y de cómo se combinan para formar las distintas sustancias. En 1674, John Mayow llevó a cabo una serie de experimento sobre la respiración (con ratones) y sobre la combustión descubriendo que, cuando se  realizaban en un recipiente cerrado, el volumen de gas se reducía siempre. Mayow notó, además; que ni la respiración ni la combustión continúan indefinidamente; los ratones acaban por morir y las llamas se extinguen con el tiempo.

Aunque Mayow no dio una explicación completa y satisfactoria de sus observaciones, su trabajo fue de gran importancia, pues contribuyó a allanar el camino a los investigadores que prosiguieron los experimentos para determinar la naturaleza del aire. Los suyos fueron los primeros experimentos que demostraron que el aire estaba compuesto por más de un gas. Debido al auge de la teoría del flogisto, los progresos experimentados ,en torno a la composición y naturaleza del aire se demoraron casi un siglo.

Formulada por Joachim Becher y desarrollada por Georg Stahl, esta teoría proporcionaba una explicación ingeniosa de la combustión y reacciones afines. Al quemar un metal y dejar las cenizas, se liberaba flogisto. Inversamente, al extraer el metal de su mineral correspondiente, había de suministrarse flogisto.

Cuando en química se comenzó a pesar, quedó demostrada la falsedad de tal teoría, cuyos partidarios, sin embargo, no quedaron del todo convencido?. Su interpretación de los hechos experimentales era en extremo curiosa, pues, al  demostrarse  que  un  metal   ganaba peso después de ser quemado y formar el óxido correspondiente, ellos lo explicaban diciendo que el flogisto tenía un peso negativo.

A mediados del siglo XVIII, un grupo de químicos estaba dedicado al estudio de los gases, aunque, por el momento, a todos los gases se les llamaba aire. En principio, su interés estaba dirigido al diseño de distintos aparatos capaces de generar, retener y analizar gases. Joseph Black fue el primero que utilizó mercurio, en vez de agua, como líquido sobre el que los gases podían ser almacenados.

El anhídrido carbónico fue el primer gas componente del aire que pudo ser preparado. Joseph Black le llamó aire fijo y lo obtuvo, en 1755, por calcinación del carbonato calcico, notando que esta última sustancia perdía peso después de ser calcinada.

Hacia 1770, Antoine Laurent Lavoisier, Joseph Priestley y Carl Wilhelm Scheele descubrieron independientemente el oxígeno o aire fuego y, casi al mismo tiempo, pudo demostrarse que el aire atmosférico era una mezcla de oxígeno y nitrógeno. Este último era el gas residual que quedaba, por ejemplo, cuando el oxígeno se consumía en una combustión. Estos investigadores llegaron también a descubrir que el oxígeno es un elemento indispensable para la vida y los procesos de combustión.

Los trabajos más interesantes son los realizados por Lavoisier sobre el oxígeno, pues en sus experimentos llevó a cabo medidas muy cuidadosas; en aquella época, muy raramente se abordaban los problemas químicos cuantitativamente.

En 1785, mientras llevaba a cabo un análisis minucioso del aire, Henry Cavendish estuvo a punto de descubrir la presencia de los gases nobles. Comprobó que casi todo el nitrógeno del aire podía ser convertido en nitrato potásico, haciendo saltar una chispa eléctrica en un recipiente cerrado que contuviese una solución de hidróxido potásico, después de haber hecho entrar suficiente oxígeno para que tuviese lugar la reacción. No obstante, al término de sus experimentos Cavendish descubría que siempre quedaba un pequeño residuo sin reaccionar.

Los trabajos de Cavendish fueron olvidados durante 100 años, hasta que, en 1892, Lord Rayleigh notó que existía una notable diferencia entre la densidad del nitrógeno procedente de la atmósfera y la del obtenido por medios químicos.

Este hecho sugería que el nitrógeno atmosférico estaba contaminado por otro gas más denso. Posteriores investigaciones, llevadas a cabo por Lord Rayleigh y William Ramsay, permitieron el descubrimiento de la familia de gases nobles. El argón entra a formar parte del aire en un 0,93 % en volumen. Los restantes gases nobles (neón, helio, criptón y xenón) entran en proporciones mucho menores.

EXPERIMENTOS DE  RAMSAY
Para averiguar si en el aire existían otros gases, Ramsay tuvo que separar los componentes ya conocidos (nitrógeno, oxígeno, anhídrido carbónico y vapor de agua). Para ello, separaba, primero, el anhídrido carbónico, haciendo pasar el aire a través de una solución concentrada de hidróxido potásico.

A continuación, separaba el vapor de agua con ácido sulfúrico concentrado. Para conseguir la total ausencia de ambos, utilizaba varios bulbos, que contenían cada uno de estos absorbentes. Haciendo pasar el aire seco a través de granalla de cobre ai rojo, lograba separar el oxígeno, al reaccionar este gas para formar óxido de cobre.

Determinando el incremento de peso obtenido, averiguaba el  peso de  oxígeno existente  en  una  muestra  de  aire. Por último, separaba el nitrógeno haciendo pasar los gases residuales a través de cinta de magnesio al rojo. Este elemento se combina rápidamente con el nitrógeno para formar N2Mg3, nitruro de magnesio, un sólido amarillo.

Determinaba el peso de nitrógeno pesando el tubo que contenía el magnesio, antes y después de la operación. Para conseguir la separación de todo el oxígeno y el nitrógeno, hacía pasar el aire lentamente sobre el cobre y el magnesio al rojo, procurando que éstos presentaran una gran superficie.

Una vez que todos estos gases habían sido separados, a Ramsay le quedaba un gas no reactivo (argón), que ocupaba casi el 1 % del volumen original de aire. Posteriores investigaciones demostraron que lo que Ramsay había aislado no era un gas, sino una familia completa de gases inertes:  los “gases nobles”.

Ver Esquema del Experimento

IMPUREZAS   PRESENTES EN  EL AIRE
En las ciudades industriales, el aire contiene, por lo general, pequeñas cantidades de ácido sulfhídrico y de anhídrido sulfuroso, productos que se desprenden en distintos procesos. La presencia de estos gases es un peligro para la salud, contribuye a la formación de nieblas y ataca las fachadas de los edificios.

En ciertos países, donde la situación ha llegado a ser muy seria, se tomaron ya medidas legislativas por las que han sido fijados estrictos límites máximos para las cantidades de polvo y humos liberados por las chimeneas de las fábricas. Como consecuencia, éstas instalarán ahora dispositivos especiales para reducir a un mínimo la cantidad de las sustancias que han de pasar a la atmósfera. Las proporciones de polvo, ácido sulfhídrico, anhídrido sulfuroso, amoníaco y óxidos de nitrógeno existentes en la atmósfera son variables.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°41 La Composición del Aire

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas. La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios. Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él. Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte. Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno. En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10. Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía. Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides. Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo. La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

LA  ELECTRÓLISIS  DEL AGUA

El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno. Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos. No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene. Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—). Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino. Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad. Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno. En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la “Schmidt-Oerlikon” que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES:
Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que” tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA
TEORÍA GENERAL DE LA RELATIVIDAD FORMULADA POR ALBERT EINSTEIN

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando “revoleamos” una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o “empujados” contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue “la idea más feliz de mi vida“, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: “La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad”.

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Usos del Transbordador Espacial Misiones y Programas de la NASA

El Trasbordador Espacial
El Trasbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmico. El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.”El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo”, dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

El Mar Muerto, donde nadie de ahoga Porque? Caracteristicas

EL MAR DONDE NADIE SE AHOGA,…¿POR QUE?

vida en condicones extremas

El Agua Salada del Mar en El Que No Se Puede Ahogar Nadie
Este mar existe y se encuentra en un país que conoce la humanidad desde los tiempos más remotos. Se trata del célebre Mar Muerto de Palestina. Sus aguas son extraordinariamente saladas, hasta tal punto que en él no puede existir ningún ser vivo. El clima caluroso y seco de Israel hace que se produzca una evaporación muy intensa en la superficie del mar. Pero se evapora agua pura, mientras que la sal se queda en el mar y va aumentando la salinidad de sus aguas.

Esta es la razón de que las aguas del Mar Muerto contengan no un 2 ó 3 por ciento (en peso) de sal, como la mayoría de los mares y océanos, sino un 27 o más por ciento. Esta salinidad aumenta con la profundidad. Por lo tanto, una cuarta parte del contenido del Mar Muerto está formada por la sal que hay disuelta en el agua.

La cantidad total de sal que hay en este mar se calcula en 40 millones de toneladas.

La gran salinidad del Mar Muerto determina una de sus peculiaridades, que consiste en que sus aguas son mucho más pesadas que el agua de mar ordinaria. Hundirse en estas aguas es imposible.

El cuerpo humano es más liviano que ellas.
El peso de nuestro cuerpo es sensiblemente menor que el de un volumen igual de agua muy salada y, por consiguiente, de acuerdo con la ley de la flotación, el hombre no se puede hundir en el Mar Muerto, al contrario, flota en su superficie lo mismo que un huevo en agua salada (aunque en el agua dulce se hunde).

Mark Twain estuvo en este lago-mar y después escribió humorísticamente las extrañas sensaciones que él y sus compañeros experimentaron bañándose en sus aguas:

“Fue un baño muy divertido. No nos podíamos hundir. Se podía uno tumbar a lo largo sobre la espalda y cruzar los brazos sobre el pecho y la mayor parte del cuerpo seguía sobre el agua. En estas condiciones se podía levantar la cabeza por completo.

Se puede estar tumbado cómodamente sobre la espalda, levantar las rodillas hasta el mentón y abrazarlas con las manos. Pero en este caso se da la vuelta, porque la cabeza resulta más pesada. Si se pone uno con la cabeza hundida y los pies para arriba, desde la mitad del pecho hasta la punta de los pies sobresale del agua; claro que en esta posición no se puede estar mucho tiempo.

Si se intenta nadar de espaldas no se avanza casi nada, ya que las piernas no se hunden en el agua y sólo los talones encuentran apoyo en ella. Si se nada boca abajo no se va hacia adelante, sino hacia atrás.

En el Mar Muerto el equilibrio del caballo es muy inestable, no puede ni nadar ni estar derecho, inmediatamente se tumba de costado”.

En la figura de abajo se puede ver un bañista que descansa comodísimamente sobre las aguas del Mar Muerto. El gran peso específico del agua le permite estar en esta posición, leer el libro y protegerse con la sombrilla de los ardientes rayos del Sol.

El agua de Kara-Bogas-Gol (golfo del Mar Caspio) tiene estas mismas propiedades y las del lago Eltón no son menos saladas, puesto que contienen un 27% de sal.

Un bañista en el Mar Muerto.  Mar Muerto, lago salino situado entre Israel, Cisjordania y Jordania. Con una profundidad oficial que alcanza los 408 m bajo el nivel del mar (según unas mediciones realizadas en 2006, alcanzaría los 418 m), se considera el lugar más bajo de la tierra emergida, sin tener en cuenta la sima antártica Bentley, cubierta hoy día por hielo.

Algo parecido sienten los enfermos que toman baños salinos. Cuando la salinidad del agua es muy grande, como ocurre, por ejemplo, con las aguas minerales de Staraia Russa, los enfermos tienen que hacer no pocos esfuerzos para mantenerse en el fondo del baño.

Yo he oído como una señora que tomó los baños de Staraia Russa se quejaba de que el agua “la echaba materialmente fuera del baño”. Según ella la culpa de esto la tenía … la administración del balneario.

El grado de salinidad de las aguas de los distintos mares oscila un poco y a esto se debe que los barcos no se sumerjan en ellas hasta un mismo sitio. Algunos de nuestros lectores habrán visto el signo que llevan los barcos cerca de la línea de flotación, llamado “marca de Lloyd”, que sirve para indicar el nivel límite de la línea de flotación en aguas de distinta densidad.

Por ejemplo, la marca representada en la fig. 52 indica los niveles límite de la línea de flotación siguientes:  

en agua dulce (Fresh Water)

FW

en el Océano Indico (India Summer)

IS

en agua salada en verano (Summer)

S

en agua salada en invierno (Winter)

W

en el Atlántico del norte en invierno (Winter North Atlantik)

WNA

Antes de terminar este artículo quiero advertir que existe una variedad de agua que aún estando pura, es decir, sin contener otros cuerpos, es sensiblemente más pesada que la ordinaria. Este agua tiene un peso específico de 1,1, es decir, es un 10% más pesada que la común, por consiguiente, en una piscina con agua de este tipo lo más probable es que no se ahogue nadie, aunque los que se bañen no sepan nadar.

Este agua se llama agua “pesada” y su fórmula química es D 2 0 (el hidrógeno que entra en su composición está formado por átomos dos veces más pesados que los del hidrógeno ordinario. Este hidrógeno se designa con la letra D). El agua “pesada” se encuentra disuelta en el agua común en cantidades muy pequeñas. Un cubo de agua potable contiene cerca de 8 g de agua “pesada”.  

Disco de carga máxima en el costado de un buque. Las marcas se hacen al nivel de la línea de flotación. Para que se vean mejor se muestran aparte aumentadas. El significado de las letras se explica en el texto.

El agua pesada de fórmula D 2 O (hay 17 tipos de agua pesada, cuyas composiciones son distintas) se obtiene actualmente casi pura, puesto que la cantidad de agua ordinaria que hay en ella constituye aproximadamente un 0,05%. Este agua se emplea mucho en la técnica atómica, especialmente en los reactores atómicos. Se obtiene en grandes cantidades del agua ordinaria por procedimientos industriales

Fuente Yakov Perelman
Física Recreativa

Ir al Menú de Cuestiones Físicas

 

Curiosa Situacion Física-Vuelo en Globo-Yakov Perelman

CURIOSA SITUACIÓN FÍSICA PARA VOLAR ECONÓMICO

vida en condicones extremas

El procedimiento mas barato de viajar:
El ingenioso escritor francés del siglo XVII, Cyrano de Bergerac cuenta en su “Historia Cómica de los Estados e Imperios de la Luna” (1652), entre otras cosas, un caso sorprendente que, según dice, le ocurrió a él mismo.

Un día, cuando estaba haciendo experimentos de Física, fue elevado por el aire de una forma incomprensible con sus frascos y todo. Cuando al cabo de varias horas consiguió volver a tierra quedó sorprendido al ver que no estaba ni en Francia, ni en Europa, sino en América del Norte, ¡en el Canadá!

¿Se puede ver desde un aeróstato cómo gira la Tierra? (El dibujo no se atiene a escala)

No obstante, el escritor francés consideró que este vuelo transatlántico era completamente natural. Para explicarlo dice que mientras el “viajero a la fuerza” estuvo separado de la superficie terrestre, nuestro planeta siguió girando, como siempre, hacia oriente, y que por eso al descender sentó sus pies no en Francia, sino en América.

¡Que medio de viajar más fácil y económico! No hay más que elevarse sobre la superficie de la Tierra y mantenerse en el aire unos cuantos minutos para que al descender nos encontremos en otro lugar, lejos hacia occidente.

¿Para qué emprender pesados viajes por tierra o por mar, cuando podemos esperar colgando en el aire hasta que la misma Tierra nos ponga debajo el sitio a donde queremos ir?.

Desgraciadamente este magnífico procedimiento es pura fantasía.

En primer lugar, porque al elevarnos en el aire seguimos sin separarnos de la esfera terrestre; continuamos ligados a su capa gaseosa, es decir, estaremos como colgados en la atmósfera, la cual también toma parte en el movimiento de rotación de la Tierra alrededor de su eje.

El aire (o mejor dicho, su capa inferior y más densa) gira junto con la Tierra y arrastra consigo todo lo que en él se encuentra: las nubes, los aeroplanos, los pájaros en vuelo, los insectos, etc., etc.

Si el aire no tomara parte en el movimiento de rotación de la Tierra sentiríamos siempre un viento tan fuerte, que los huracanes más terribles parecerían ligeras brisas comparadas con él (La velocidad del huracán es de 40 m por segundo o 144 km por hora.

Pero la Tierra, en una latitud como la de Leningrado, por ejemplo, nos arrastraría a través del aire con una velocidad de 240 m por segundo, es decir, de 828 km por hora, y en la región ecuatorial, por ejemplo, en Ecuador, esta velocidad sería de 465 m por segundo, o de 1.674 km por hora).

Porque lo mismo da que estemos nosotros fijos en un sitio y que el aire pase junto a nosotros o que, por el contrario, sea el aire el que está quieto y nosotros los que nos movemos dentro de él; en ambos casos el viento será igual de fuerte. Por ejemplo, un motociclista que avance a una velocidad de 100 km por hora sentirá un viento fuerte de frente aunque el aire esté en calma.

En segundo lugar, aunque pudiéramos remontarnos hasta las capas superiores de la atmósfera o la Tierra no estuviera rodeada de aire, el procedimiento de viajar económicamente ideado por el satírico francés sería también irrealizable.

Efectivamente, al separarnos de la superficie de la Tierra en rotación continua seguiríamos, por inercia, moviéndonos con la misma velocidad que antes, es decir, con la misma velocidad a que se movería la Tierra debajo de nosotros.

En estas condiciones, al volver a la Tierra nos encontraríamos en el mismo sitio de donde partimos, de igual manera que cuando damos saltos dentro de un vagón de ferrocarril en marcha caemos en el mismo sitio. Es verdad que por inercia nos moveremos en línea recta (tangencialmente a la superficie terrestre), mientras que la Tierra seguiría un arco debajo de nosotros, pero tratándose de lapsos de tiempo pequeños esta diferencia no se nota.

Fuente Yakov Perelman Física Recreativa

Ir al Menú de Cuestiones Físicas

 

Tabla periodica de los elementos quimicos Tabla de Mendeleiev

Tabla Periódica de los Elementos Químicos
Tabla de Mendeleiev

El estudio del átomo llevó a establecer algunas propiedades de los elementos químicos, que al ser comparadas con las de otros elementos, observaban similitudes, ofreciendo posibilidad de clasificación. Durante el siglo XIX Se acrecentó el interés por encontrar la manera de clasificar los elementos.

En 1869 el profesor de química de la universidad de San Petersburgo Dmitri Ivánovich Mendeléiev —un hombre liberal, feminista y excéntrico (sólo se cortaba el cabello una vez al año)— tuvo bastantes altercados con el gobierno zarista. Y el «memorándum» que distribuyó entre sus colegas en 1869 no impidió que el gobierno lo enviara varias veces al extranjero.

Se trataba sólo de un pequeño cuadro en el que los 63 elementos químicos conocidos aparecían ordenados por sus pesos atómicos, en orden creciente, y colocados de manera que los que tenían propiedades químicas parecidas estuvieran en una misma columna. La extraña periodicidad que esta disposición revelaba parecía totalmente arbitraria, máxime cuando Mendeléiev había hecho algunos apaños, corrigiendo ciertos pesos atómicos para que cuadraran o dejando huecos poco verosímiles.

En 1869 el químico ruso Dimitri Mendeleyev ideó un ingenioso catálogo de los elementos, la tabla periódica. Observó que los elementos parecen distribuirse en familias, que se repiten periódicamente, con propiedades químicas semejantes.

Siguiendo este criterio, anotó el símbolo químico y el peso atómico de todos los elementos conocidos y los ordenó, según su peso, en orden de menor a mayor; también colocó los elementos con propiedades semejantes en columnas verticales. De este modo formó un esquema, una especie de mapa donde los elementos aparecen ordenados en familias verticales y en períodos horizontales.

El hidrógeno, el más ligero de los elementos, ocupa un lugar algo apartado del conjunto, debido a sus propiedades especiales. En tiempo de Mendeleiev se creía que el átomo era indivisible, pero el descubrimiento de los rayos X y de la radiactividad provocaron la primera duda. Actualmente sabemos que el átomo está constituido por tres clases principales de partículas: protones, neutrones y electrones.

Protones y neutrones constituyen el núcleo del átomo. Los electrones, que giran en órbita alrededor del núcleo, determinan las propiedades químicas y, en consecuencia, la situación de los elementos en la tabla periódica.

A la izquierda de la tabla aparecen representaciones simplificadas de los átomos de los elementos pertenecientes a la familia de los metales alcalinos; sobre la misma se hallan los elementos del segundo período. Adviértase que todos los metales alcalinos poseen un solo electrón en la órbita externa; precisamente esta estructura similar es causa de su semejanza en las propiedades químicas.

En el segundo período la situación es completamente diferente. Aunque cada átomo tiene dos órbitas, varía el número de electrones de la exterior. La diferencia de estructura provoca la diferencia de propiedades. Según crece el número de electrones de la órbita exterior, las propiedades varían de izquierda a derecha, es decir, de los metales a los metaloides.

Cuando se completan los ocho electrones posibles de la órbita exterior (neón), concluye el segundo período. El sodio, que inicia el tercer período, posee una órbita más con un electrón. Los períodos aumentan y se hacen más complejos a medida que crece el número de órbitas.

También aumenta el número de electrones en las órbitas sucesivas. Los átomos pesados son los menos estables: todos los elementos posteriores al bismuto, cuyo número atómico es 83, son radiactivos.

Los elementos reciben un nombre que responde en algún:; casos a raíces latinas, y en otro en honor a la persona que los descubre. Éstos se abrevian en símbolos, si tiene una sola letras deberá, ser mayúscula y si lo componen dos, la primera mayúscula y la segunda minúscula por ejemplo nitrógeno (N) y  sodio (Na), respectivamente.

PRIMERAS CLASIFICACIONES DE LOS ELEMENTOS QUÍMICOS:

Las tríadas de Dobereiner: En 1829, Dobereiner, químico alemán, clasificó los elementos conocidos. Agrupaba tres elementos con características observables similares. La clave de esta forma de organización era el hecho de que para uno de los elementos que formaban el grupo, la masa era el valor promedio de las masas de los tres elementos, por ejemplo (Li, Na, K) cuyas masas son 7, 23, y 39 gramos respectivamente. Si sumas los tres datos y los divides entre el número de elementos (3) te da exactamente el valor de la masa del Na, el cual se ubica en la mitad. Clasificación dispendiosa y no muy exacta para nuevos elementos.

Octavas de Newlands: En 1864, Newlands, químico inglés, clasificó los elementos en grupos de ocho, por lo que se conocen como octavas de Newlands. Esta clasificación hacía alusión al término de periodicidad, ya que según la teoría, las propiedades de algunos elementos conocidos se repetían cada ocho elementos y básicamente las organizó en orden ascendente de sus pesos atómicos.

Mendeleiev y Meyer: la tabla periódica: En 1869 Dimitri Mendeleiev, químico ruso, retoma los estudios realizados anteriormente y basándose también en propiedades periódicas de los elementos, los organiza por orden de pesos atómicos ascendentes y, con algunas propiedades más, agrupó los elementos por familias en las que incluyó a los elementos con mayor cantidad de similitudes. Paralelamente Meyer, físico alemán, realizaba estudios basado en los mismos principios, pero añadió estudios de algunas propiedades físicas, que también resultaron ser periódicas, tales como el radio atómico. El gran aporte de Mendeleiev es la base de la tabla periódica actual, ya que dejó los espacios para elementos aún no descubiertos, que respondían a sitios vacíos en la tabla periódica.

REGIONES DE LA TABLA PERIÓDICA
La tabla periódica esta dividida a nivel general en metales y no metales. Sin embargo, hay otra diferenciación, que la divide en regiones, división basada en los subniveles energéticos que ocupan los electrones del ultimo nivel. Así la tabla periódica está dividida en la región s, la región p, la región d y la región f. Por ejemplo, en la región s se ubican los elementos cuyos e- finalicen su distribución en el subnivel s. En esta sección nos ocuparemos de las regiones d y f de la tabla periódica, correspondientes a los elementos de transición.

Elementos de transición
Los átomos de los elementos siempre tienden a ser estables energéticamente, por lo cual ceden, comparten o pierden electrones. Esta estructura estable coincide cuando en su último nivel hay ocho electrones, pero en el caso de este grupo particular de elementos, se suspende el llenado del último nivel para completar primero el penúltimo nivel. Por esta razón aunque los demás elementos de la tabla periódica tiendan a realizar sus enlaces utilizando los electrones del último nivel de energía, éstos lo hacen tanto con los electrones del último nivel, como con los del penúltimo. Se caracterizan además, por poseer gran cantidad de estados de oxidación, es decir, que involucran diferentes cantidades de electrones para intervenir en un enlace, lo que hace que formen varios compuestos. Los elementos que pertenecen a este grupo especial, son los pertenecientes a los lantánidos, actínidos y tierras raras.

Electronegatividad
Si se analizan las propiedades de los elementos químicos, también se puede establecer que hay periodicidad teniendo en cuenta la electronegatividad de los elementos químicos, que básicamente es la tendencia que tienen los átomos de atraer o captar electrones; son ejemplo de ello el oxígeno y el cloro, ya que la electronegatividad aumenta en un periodo de izquierda a derecha y en un grupo de abajo hacia arriba. Y si localizas estos dos elementos se ubican en los lugares más electronegativos de la tabla periódica. Este concepto fue establecido por L. Pauling, quien determinó valores de electronegatividad para cada uno de los elementos; algunos ejemplos se muestran en la tabla que sigue:

Na Mg Al P Cl F Br I At Fr
0.9 1.2 1.5 2.1 3.0 4.0 2.8 2.5 2.2 0.7

Por otra parte y como compensación, existe otro grupo de átomos que tiende a perder los elec-trones, siendo estos los electropositivos. Por ejemplo el sodio y el calcio al poseer solamente 1 y 2 electrones, respectivamente, en su último nivel tienden a cederlos. De esta manera empieza también a evidenciarse la afinidad entre ellos, dado que el átomo que tiende a capturar se complementaría en un enlace químico con uno que tienda a ceder o perder electrones.

Valencia
Para establecer de qué manera los átomos se relacionan, es necesario saber la cantidad de electrones que un átomo puede atraer (ganar), ceder (perder) o compartir con otro átomo, concepto que se conoce con el nombre de valencia. La ilustración 3.16, muestra la forma como se relacionan dos átomos de dos elementos, para formar un compuesto: el átomo de sodio pierde un electrón, es decir su valencia es 1 y el átomo de cloro gana 1 electrón, entonces su valencia también es 1. En síntesis, la valencia es el poder de combinación de un elemento con otro, dado por los electrones del último nivel.

Enlace
La unión entre los átomos se denomina enlace, que es una fuerza de atracción lo suficientemente intensa como para permitir que los átomos involucrados funcionen como una unidad. Se realiza básicamente entre los electrones del ultimo nivel de energía y se produce cuando .las fuerzas de atracción superan las de repulsión, clasificándose, según la manera de establecer la unión. Así pues:

Enlace iónico: se origina cuando un átomo cede y otro captura los electrones.
Enlace covalente: se origina cuando los átomos involucrados comparten sus electrones, dado que tienen la misma fuerza de atracción.

tabla periodica de mendeleiv

Ver Una Tabla Periódica Con Mas Datos

TABLA ACTUAL CON PESOS ATÓMICOS APROXIMADOS

N° Atómico Nombre Elemento Símbolo N° Protones N° Electrones Peso Atómico
1 hidrógeno H 1 0 1,0
2 helio He 2 2 4,0
3 litio U 3 4 6,9
4 berilio Be 4 5 9,0
5 boro 6 5 6 10,8
6 carbono C 6 6 12,0
7 nitrógeno N 7 7 14,0
8 oxígeno 0 8 8 16,0
9 flúor F 9 10 19,0
10 neón Ne 10 10 20,2
11 sodio Na 11 12 23,0
12 magnesio Mg 12 12 24,3
13 aluminio Al 13 14 27,0
14 silicio Si 14 14 28,1
15 fósforo P 15 16 31,0
16 azufre S 16 16 32,1
17 cloro Cl 17 18 35,5
18 argón A 18 22 39,9
19 potasio K 19 20 39,1
20 calcio Ca 20 20 40,1
21 escandio Se 21 24 45,0
22 titanio Ti 22 26 47,9
23 vanadio V 23 28 50,9
24 cromo Cr 24 28 52,0
25 manganeso Mu 25 30 54,9
26 hierro Fe 26 30 55,8
27 cobalto Co 27 32 58,9
28 níquel Ni 28 30 58,7
29 cobre Cu 29 34 63,5
30 cinc Xn 30 34 65,4
31 galio Ga 31 38 69,7
32 germanio Se 32 42 72,6
33 arsénico As 33 42 74,9
34 seienio Se 34 46 79,0
35 bromo Br 35 44 79,9
36 criptón Kr 36 48 83,8
37 rubidio Rb 37 48 85,5
38 estroncio Sr 38 50 87,6
39 itrio Y 39 50 88,9
40 zirconio Zr 40 50 91,2
41 niobio Nb 41 52 92,9
42 tnolibdeno Mo 42 56 95,9
43 tecnecio Te 43 56 (99)
44 rurenic- Ru 44 58 101,1
45 rodio Rh 45 58 102,9
46 paíadio Pd 46 60 106,4
47 plata Ag 47 60 107,9
; 48 cadmio Cd 48 66 112,4
49 indio In 49 66 114,8
50 estaño Sn 50 70 118,7
51 antimonio Sb 51 70 121,8
52 teluro Te 52 78 127,6
53 yodo 1 53 74 126,9
54 xenón Xe 54 78 131,3
55 cesio Cs 55 78 132,9
56 bario Ba S6 82 137,3
57 laura no La 57 82 138,9
58 ceño Ce m 82 140,1
59 praseodimio Pr 59 82 140,9
60 neodimio Nd 60 82 144,2
61 prometió Pm 61 86 (147)
62 samarlo Sm 62 90 150,4
63 europio Eu 63 90 152,0
64 gadolinio Gd 64 94 157,3
65 terbio Tb 65 94 158,9
66 disprosío Dy 66 98 162,5
67 holmio Ho 67 98 164,9
68 erbio Er 68 98 167,3
69 tuiio Tm 69 100 168,9
70 iterbio Yb 104 173,0
71 lutecio Lu 71 104 175,0
72 hafnio Hf 72 108 178,5
73 tantalio Ta 73 108 180,9
74 volframio W 74 110 183,9
75 renio Re 75 112 186,2
76 osmio Os 76 116 190,2
77 iridio Ir 77 116 192,2
78 platino Pt 78 117 195,1
79 oro Áu 79 118 197,0
80 mercurio H9 80 122 200,6
81 íalio TI 81 124 204,4
82 plomo Pb 82 126 207,2
83 bismuto Bi 83 126 209,0
84 pofonio Po 84 125 (299)
85 astatino At 85 125 (210)
86 radón Rn 86 136 (222)
87 francio Fr 87 136 (223!
88 radío Ra 88 138 (226,0)
89 actinio Ac 89 138 (227)
90 torio Th 90 142 (232,0)
91 protactinio Pa 91 140 (231)
92 uranio U 92 146 (238,0)
93 neptunio Np 93 144 (237)
94 plutonio Pu 94 150 (244)
95 americio Am 95 148 (243)
96 curio Cm 96 151 (247)
97 berkelio Ble 97 152 (249)
98 californio Cf ?8 151 (249)
99 einstenio Es 99 155 (254)
100 fermio Fm 100 153 (253)
101 mendelevio Md 101 155 (256)
102 nobelio No 102 152 (254)
103 laurencio Lw 103 154 (257)

ALGO MAS…
EL GENIO  INTRÉPIDO
A fines del siglo pasado flotaba ya en la atmósfera científica la idea de que al ordenar los elementos por peso atómico creciente aquellos de propiedades químicas comparables reaparecían en forma periódica. Por ejemplo, la serie alcalina litio-sodio-potasio-rubidio-cesio, o los halógenos flúor-cloro-bromo-yodo (algunos fueron descubiertos después).

Pero, a pesar de que en los más livianos dicha repetición tenía lugar de ocho en ocho y en los más pesados cada dieciocho elementos, había muchas lagunas y contradicciones.

Dimitri Mendeleiev elaboró una tabla en cuyas casillas se ordenaban en forma horizontal los pesos atómicos y vertical las “familias” de elementos químicamente similares.

Mendeleiev

Pero en su época se conocían menos de 45 cuerpos simples de los 103 que hoy forman la tabla periódica. El mérito capital del sabio ruso consistió en considerar que las fallas y vacíos del cuadro no eran imputables a éste, sino a los químicos que aún no habían descubierto el elemento destinado a intercalarse en el lugar que se le reservaba.

Así Mendeleiev vaticinó sin errores el peso atómico probable de varios elementos desconocidos, sus propiedades químicas esenciales y hasta las probables combinaciones naturales en cuyo interior se ocultaban.

Hubo dificultades. Fue necesario invertir, sin razón plausible, el potasio y el argón (hoy sabemos que una variedad de este último posee un neutrón más en su núcleo). Tampoco se sabía que la primera órbita periférica del átomo se satura con dos electrones (hidrógeno-helio), la siguiente con ocho,  etc.

Pero a pesar de su carácter empírico y sus enormes carencias, lo tabla de Mendeleiev resultó un armo prodigiosa para lo investigación científica y fue inmenso su buen éxito.

Fuente Consultada: Enciclopedia NUEVO Investiguemos Ciencia Integrada  Tomo 3

Ver: Naturaleza de la Materia

La Primer Cosechadora Mecánica de McCormick Historia

Historia de la Primera Cosechadora automática
La historia de los inventos está jalonada de obstáculos y éxitos. La marcha hacia el oeste creó un obstáculo: la falta de brazos en la época de la siembra. Los agricultores no se atrevían a sembrar muchas hectáreas de trigo, por cuanto era necesario proceder a la siega en un lapso breve. Los molinos de harina permanecían inactivos porque no había suficiente trigo sembrado.

El éxito tuvo lugar en 1840 con el advenimiento de la segadora de Cyrus McCormick. Los agricultores se animaron a sembrar más hectáreas, pues se las podía segar en poco tiempo con una máquina. De la escasez de trigo se pasó a la abundancia.

La segadora mecánica de McCormick cortaba el trigo con cuchillas movibles colocadas en barras derechas. El movimiento rotativo de la pesada rueda maestra hacía girar las cuchillas mientras los caballo:; avanzaban. Un alambre metálico giratorio colocaba el grano contra la cuchilla y ponía los tallos cortados sobre la plataforma situada detrás de ésta. Hayos en forma de dedos, que se extendían desde la plataforma, evitaban que el grano escapara por los costados al cortarlo.

Más tarde, McCormick perfeccionó dispositivos que enderezaban el cereal para hacer más fácil la siega , formar haces de los tallos cortados.

Dado que cada agricultor podía comprar una segadora con un pago al contado reducido, la venta fue mayor que la fabricación. La producción total de trigo se triplicó con creces.

La historia había cobrado nuevo ritmo. Se carpieron las selvas americanas y se sembró trigo en muchos campos. Un grupo de colonos llevó consigo un molinero que quizo instalar su molino automático Evans a orillas de un río. Estas primeras colonias siempre se desarrollaron alrededor de molinos y se esparcieron las ciudades molineras por toda la campiña.

Cuando las segadoras McCormick comenzaron a segar el grano, los ferrocarriles penetraron en las nuevas zonas agrícolas, a fin de transportar los sobrantes de harina a los puertos del este y de allí a las naciones de Europa.

Los Estados Unidos nunca perdieron esta ventaja en cuanto a su agricultura. Hoy en día, máquinas de autopropulsión siegan automáticamente el grano que se trilla en seguida, desechando los desperdicios inservibles, y luego se llenan bolsas de granos de maíz. El Hombre Mecánico convierte en jardines los desiertos y en canastos de pan las selvas.

Cyrus Hall McCormick inventó la cosechadora mecánica: Cyrus McCormick, el “padre de la agricultura moderna”, hizo una de las contribuciones más significativas a la prosperidad de los Estados Unidos, cuando inventó la segadora tirada por caballos en 1831.

1831 Cyrus Hall McCormick hizo una demostración de su cosechadora mecánica en la Taverna Steele, Virginia. La cosechadora podía cortar 10 acres por día el equivalente al trabajo de cinco hombres. Posteriormente, el acrecentó un recurso de auto-recolección que permitía que un hombre cortase 40 acres en un día. El patentó la cosechadora en 1834.

1842 Jerome Increase Case funda Racine Threshing Machine Works en Racine, Wisconsin.

1848 Cyrus Hall McCormick funda McCormick

1842 Jerome Increase Case funda Racine Threshing Machine Works en Racine, Wisconsin.

1848 Cyrus Hall McCormick funda McCormick Harvesting Machine Company en Chicago, Illinois.

1851 La cosechadora mecánica de McCormick gana la Medalha de Oro en la Exposición Real del Palacio de Cristal en Londres, Inglaterra. McCormick ingresa en el mercado europeo.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Guerra del Pacífico Chile Bolivia Causas y Consecuencias

RESUMEN GUERRA DEL PACÍFICO CHILE-BOLIVIA POR EL SALITRE

La Guerra del Pacífico, que algunoa historiadores la llaman Guerra del Guano y del Salitre fue el evento el mas amargo de la historia de Bolivia. Esta guerra comenzó en 1879, y enfrentó a Chile contra una alianza entre Bolivia y Perú, y se inicia cuando en 1878 el general boliviano Hilarión Daza, que conducía una dictadura, decide aumentar los impuestos a las exportaciones de dos empresas chilenas (FFCC y Compañia de Salitre) que explotaban los recursos en la zona boliviana de Antofagasta.

Para Chile ese aumento contradecía con lo pactado en un Tratado de Paz y Amistad en el año 1874, por lo que lo considera una violación a sus derechos, negándose a cumplir con la nueva disposición. Como respuesta Daza confisca los yacimientos explotados, rompiendo las relaciones diplomáticas, por lo que Chile decide ocupar los territorios militarmente, declarándole la guerra a Bolivia el 5 de abril de 1879.

La guerra se desarrolló en el océano Pacífico, en el desierto de Atacama y en los valles y serranías del Perú. Bolivia pierde el conflicto frente a un poderoso Chile, que se anexa un territorio territorio, que era su único punto de acceso al océano Pacifico y enormes riquezas minerales. Privada para siempre de esta región capital, Bolivia no ha logrado jamás a arrancar económicamente y hasta estos días trata de conseguir acuerdos con otros países limítrofes como Perú para poder intergrarse al comercio internacional mediante un puerto que le abra las puertas al mundo.

Luego de cinco años de guerra, los países de Bolivia y Chile firman, el 4 de abril de 1884, un pacto de tregua donde convienen en un cese de fuego y la reapertura de las relaciones comerciales. Chile como gesto de cordialidad ofrece a Bolivia unas ventajas fiscales en la ciudad de Antofagasta y se compromete a construir una línea de ferrocarril uniendo la costa del océano Pacífico a La Paz.

Guerra del Pacífico: Bolivia-Perú y Chile

Guerra del Pacífico: Bolivia-Perú y Chile

Los ejércitos de la alianza Bolivia-Perú llegaron a 12.000 soldados, mientras que Chile tenía
menos de 400o, pero bien preparados y con equipamientos modernos.

Las batallas mas importantes fueron la de Angamos, en octubre 1879 donde Chile logra controlar la zona del océano. Ese mismo año bolivia tuvo dos derrotas la de Pisagua y Tarapacá y la última de Tacna en 1880. La siguiente estapa fue contra las tropas de Perú, donde caen derrotada en Arica el 7 de Junio de 1880, para luego tomar la capital Lima en 1881. La guerra finaliza con firma del Tratado de Ancón en 1883.

CRÓNICA DE LA ÉPOCA I

El 14 de febrero la nave de guerra chilena Blanco Encalada apareció frente a Antofagasta. Su presencia en ese lugar significa el comienzo de la guerra. La presencia chilena es la respuesta al intento de Bolivia de cobrar 10 centavos por quintal de salitre explotado por una compañía británico-chilena. El aumento del impuesto a los exportadores de salitre, adoptado unilateralmente por el gobierno boliviano, desconociendo convenios anteriores, empujó a Chile a declarar la guerra. Perú, por el pacto secreto de 1873 , interviene como aliada de Bolivia. En noviembre los chilenos han desembarcado en Pisagua lo que les ha permitido capturar la provincia de Tarapacá y sus yacimientos salitreros.

CRÓNICA DE LA ÉPOCA II

La Guerra del Pacífico llegó a su fin con la firma de un tratado. La resistencia militar peruana, bajo el mando del coronel Andrés A. Cáceres Dorregaray en la región sur y centro andina venía obteniendo varias victorias contra lasfuerzasinvasoras chilenas. Pero en la batalla de Buamachuco, el 10 de julio, sufrió una decisiva derrota militar. Luego, un grupo de dirigentes peruanos del que se sospecha que actuaron de acuerdo a directivas del mando militar enemigo, determinó con una serie de medidas el final del conflicto, impusieron al general de brigada Miguel Iglesias como nuevo presidente y firmaron un tratado de paz con Chile. La guerra finalizó oficialmente el 20 de octubre con la firma del lutado de Ancón. Éste dispone que el departamento de Tararira pasa a manos chilenas, y las provincias de Arica y Tacna quedan bajo administración chilena por un lapso de 10 años. Después de ese período un plebiscito decidiría si quedan bajo soberanía de Chile o vuelven a ser peruanas. Chile además obtuvo la Puna de Atacama, por la que tenía una permanente disputa con Bolivia. El Chile boliviano no pierde solamente 120 mil metros cuadrados de territorio, sino que se queda sin los 400 kilómetros de costa y sin salida al mar, una pérdida que sin dudas redundará en muchas otras.

PARA ENTENDER MEJOR:
Antecedentes de la Época:
Hacia 1825 las guerra por la independencia de las colonias españolas americanas habían finalizado y los antiguos virreinatos desaparecieron y surgieron nuevos países que debían organizarse políticamente y económicamente para comenzar el nuevo camino hacia el progreso.

Como consecuencia de tantos años de batallas, los militares fueron ocupando un lugar más importante en las sociedades latinoamericanas y, una vez finalizada la guerra con España, intervinieron activamente en la política. En comparación con la etapa colonial, las décadas posteriores a la independencia estuvieron teñidas por la violencia, pues abundaron las luchas civiles y los conflictos entre los nuevos países, cuyas fronteras todavía no estaban bien definidas.

En las luchas civiles latinoamericanas se enfrentaron a menudo sectores conservadores y liberales. Los conservadores pretendían mantener una rígida jerarquía social, eran poco favorables a los cambios, no veían con buenos ojos la llegada de ideas innovadoras de Europa y, por lo general, defendían los intereses de las zonas rurales, donde estaban sus propiedades. Por el contrario, los liberales eran partidarios de abrir un poco más la participación ía grupos no tan adinerados pero instruidos, admiraban los avances de las sociedades europeas que esperaban imitar en sus países, y representaban mejor los intereses de los habitantes de las ciudades.

La guerra había empobrecido a América latina y destruído su riqueza. Hacia 1850, algunos países como Venezuela, Chile o la región del Río de la Plata habían logrado recuperarse y mejorar su economía con respecto a los tiempos de la colonia, gracias a la exportación de productos agropecuarios.

Las discusión de las fronteras de los nuevos países de América del sur, que inicialmente se respetaron los antiguos límites de la Capitanía General de Chile, comenzó a ser un tema espinoso cuando la demanda mundial de los recursos naturales de esas zonas, como fueron los minerales comenzó a incrementarse, y esas exportaciones se convirtieron en importantes fuentes de ingresos para esos estados, necesitados de recursos económicos. Perú y Bolivia también tenían discusiones con algunos límites en la región del guano de Tarapacá.

Como se vé, en estos países como Bolivia, Perú y México la minería, que era la actividad económica más importante, se encontraba en declinación, porque faltaba dinero para invertir en las minas y aumentar su producción, por lo que muchas veces se permitía la explotación de esos recursos a empresas extranjeras, que eran quienes poseían el capital necesario para dichas inversiones. Bolivia era el caso, en donde se permitía extraer el nitrato de Antofagasta por empresas chilenas, que lamentablemente terminaron en una guerra, que la ha perjudicado a hasta hoy.

A los fines de no obstaculizar el desarrollo de los países en vía de crecimiento, se pactaron tratados para la explotación de los minerales en distintas regiones, como por ejemplo el de 1874, donde Chile cedía sus derechos entre los paralelos 23 y 25, a cambio de que Bolivia no aumentara los impuestos a las empresas chiles por 25 años, acuerdo que generó la Guerra del Pacífico

LA REALIDAD DEL COMERCIO: Mientras la independencia política trajo independencia económica a América Latina, los viejos patrones fueron restablecidos rápidamente. En lugar de España y Portugal, Gran Bretaña dominaba la economía del continente.

Los comerciantes británicos se trasladaban en gran número, mientras los inversionistas ingleses vertían su capital generosamente, especialmente en la minería. Muy pronto los viejos esquemas comerciales volvieron a ponerse en práctica. Dado que América Latina había servido como una fuente de materia prima y suministro alimenticio a las naciones industrializadas de Europa y Estados Unidos, muy pronto las exportaciones hacia el Atlántico Norte se incrementaron notablemente, en particular las de rigo, tabaco, lana, azúcar, café y pieles.

Al mismo tiempo, los bienes de consumo terminados, especialmente los textiles, fueron importados en notables cantidades, lo que provocó el declive de la producción industrial en América Latina. La sobreexportación de materias primas e importación de productos manufacturados aseguraba la prolongada dominación de la economía latinoamericana por parte de extranjeros.

Eduardo Galeano, en su famoso libro: “La venas abiertas de América Latina” explica:

“Poco después del lanzamiento internacional del guano (que se usaba como fertlizante en Europa) , la química agrícola descubrió que eran aún mayores las propiedades nutritivas del salitre, y en 1850 ya se había hecho muy intenso su empleo como abono en los campos europeos.

Las tierras del viejo continente dedicadas al cultivo del trigo, empobrecidas por la erosión, recibían ávidamente los cargamentos de nitrato de soda provenientes de las salitreras peruanas de Tarapacá y, luego, de la provincia boliviana de Antofagasta. Gracias al salitre y al guano, que yacían en las costas del Pacífico «casi al alcance de los barcos que venían a buscarlos», el fantasma del hambre se alejó de Europa.

La explotación del salitre rápidamente se extendió hasta la provincia boliviana de Antofagasta, aunque el negocio no era boliviano sino chileno. Cuando el gobierno de Bolivia pretendió aplicar un impuesto a las salitreras que operaban en su suelo, los batallones del ejército de Chile invadieron la provincia para no abandonarla jamás.

Hasta aquella época, el desierto había oficiado de zona de amortiguación para los conflictos latentes entre Chile, Perú y Bolivia. El salitre desencadenó la pelea. La guerra del Pacífico estalló en 1879 y duró hasta 1883. Las fuerzas armadas chilenas, que ya en 1879 habían ocupado también los puertos peruanos de la región del salitre, Patillos, Iquique, Pisagua, Junín, entraron por fin victoriosas en Lima, y al día siguiente la fortaleza del Callao se rindió.

La derrota provocó la mutilación y la sangría de Perú. La economía nacional perdió sus dos principales recursos, se paralizaron las fuerzas productivas, cayó la moneda, se cerró el crédito exterior. Bolivia, por su parte, no se dio cuenta de lo que había perdido con la guerra: la mina de cobre más importante del mundo actual, Chuquicamata, se encuentra precisamente en la provincia, ahora chilena, de Antofagasta.”

Los problemas fronterizos heredados de la época colonial provocaron en 1879 el estallido de la guerra del Pacífico contra Perú y Solivia por el control de la zona salitrera de Atacama. La victoria final chilena en 1883 extendió la soberanía del país sobre el territorio de Tarapacá, Tacna y Arica (el tratado de Lima, de 3 de junio de 1929, estableció la soberanía de Perú sobre Tacna y la de Chile sobre Arica).

CRÓNICA DE LA EPOCA III:

La economía boliviana desde hace tiempo se encuentra administrada en sus sectores más sensibles por intereses extranjeros. Al crearse en 1871 el Banco Nacional de Bolivia, su dirección recayó en manos de familias prominentes de la política chilena, como los Edwards y los Concha y Toro, más tarde aliados con la oligarquía de la plata boliviana representada por los sucesores de Aniceto Arce y Pacheco.

En este sentido, cuando en 1873 se formó la Compañía de Huanchanca para la explotación de plata, se hizo con el aporte de capitalistas chilenos que suscribieron las dos terceras partes de las acciones y controlaron cuatro de los cinco puestos del directorio de la empresa. Un año después, el canciller de Bolivia, Mariano Baptista, firmó el tratado con Chile que exoneraba a éste del pago de impuestos por 25 años en Atacama. Es precisamente la violación de esta cláusula por el actual presidente boliviano, Hilarión Daza, lo que acaba de encender la mecha bélica.

En contrapartida, la estrategia de alianzas de la élite minera de la plata con Chile resulta perjudicial para los intereses peruanos y argentinos ya que, al aplicar una política de comercialización exclusiva por el puerto de Antofagasta, Bolivia atenta contra el comercio de los otros países de la región.

Por ello, en el caso del Perú el problema se centra en las relaciones comerciales, en particular por la rivalidad entre los puertos del Pacífico: Callao y Valparaíso. El Tratado de Alianza defensiva por el cual Perú está aliado a Bolivia es de 1873 y el interés peruano de comprometerse en una defensa mutua ante un ataque externo no es tanto el temor a Chile -país con el que no tiene frontera- sino la preocupación frente a la actitud de Bolivia.

En más de seis oportunidades, según afirman políticos peruanos, se discutió en la agenda boliviana la alternativa de promover una alianza entre Bolivia y Chile en contra de Perú. Para este último la alianza con Bolivia tiene sentido dentro de una estrategia más amplia que contemple la participación de la Argentina ya que la unión de la armada peruana y la argentina pueden llegar a neutralizar efectivamente los propósitos agresivos chilenos.

Por su parte en la Argentina la situación de la frontera indígena, las pretensiones chilenas sobre la Patagonia y la demarcación de límites territoriales en la Cordillera de los Andes concentran la preocupación del gobierno.

Asimismo, la disputa en el norte por el territorio de Tarija no es menor. Frente a este panorama, y en una evaluación de los resultados de un posible conflicto bélico con Chile, el Senado argentino ha visto con buenos ojos la posibilidad de firmar una alianza con Perú y con ello frenar las aspiraciones de Chile. Sin embargo, el clima hostil que se vive no colabora en dirección a una salida negociada ya que la diplomacia boliviana parece boicotear tal desenlace.

Los argumentos esgrimidos actualmente por Bolivia resultan incoherentes: por un lado reconoce el “utis posidetis”, es decir, las fronteras establecidas a fines de la época colonial, reclamando a Chile Atacama; pero por el otro desconoce el mismo principio al momento de reconocer Tarija para la Argentina. No es tanto la localidad norteña lo que preocupa a la cancillería argentina, sino el desconocimiento del “utis posidetis” ya que es la base sobre la cual se sustentan los derechos argentinos en la querella con Chile por la Patagonia.

En definitiva, ningún pronóstico es optimista respecto de la coyuntura y estamos frente al estallido de una guerra en el Pacífico. Bolivia y Chile así lo han manifestado. Perú se encuentra atado a un compromiso al que no puede renunciar, y la Argentina ante un posible conflicto se mantendrá neutral mientras se garantice la integridad territorial conservando la Patagonia y los límites cordilleranos preestablecidos.

Fuente Consultada:
Diario Bicentenario Fasc. N°4 Período 1870-1879

Inventos de Edison Bombilla Eletrica Fonografo Historia y Evolución

Thomas Alva Edison es uno de los más famosos inventores de América: perfeccionó el telégrafo, el teléfono, inventó el mimeógrafo, aportó al cine y la fotografía, para, finalmente, gravar su nombre en el primer fonógrafo. Fue responsable de importantes cambios en la ciencia.

Sus inventos creados han contribuido a las modernas luces nocturnas, películas, teléfonos, grabaciones y CD’s. Edison fue realmente un genio. Edison es famoso por su desarrollo de la primera ampolleta eléctrica.

El fonógrafo de tinfoil fue la invención favorita de Edison. Hacia 1877, inventó la “máquina que habla” por accidente, mientras trabajaba en telegrafía y telefonía; pero el fonógrafo no salió a la venta sino hasta 10 años después. También trabajó en una máquina para grabar mensajes telegráficos automáticamente.

La primera demostración práctica, coronada con un éxito completo, tuvo lugar en Menlo Park, el 21 de octubre de 1879, y dio paso a la inauguración del primer suministro de luz eléctrica de la historia, instalado en la ciudad de Nueva York en 1882, y que inicialmente contaba con 85 abonados.

Para poder atender este servicio, Edison perfeccionó la lámpara de vacío con filamento de incandescencia, conocida popularmente con el nombre de bombilla, construyó la primera central eléctrica de la historia (la de Pearl Street, Nueva York) y desarrolló la conexión en paralelo de las bombillas, gracias a la cual, aunque una de las lámparas deje de funcionar, el resto de la instalación continúa dando luz.

La Primer Llamada Telefonica de la Historia Bell Inventor

La Revolución Industrial popularizó tanto los avances científicos como sus aplicaciones técnicas; el ferrocarril, la electricidad, el teléfono o las vacunas consiguieron que en la mentalidad de las sociedades europea y americana se estableciese el ideal de progreso continuado y una fe ciega en las posibilidades de la ciencia y la técnica: las exposiciones universales fueron un ejemplo de esta actitud.

Los propios científicos se convirtieron en propagandistas del progreso con la creación de instituciones y sociedades dedicadas a esta tarea, como la Royal Institution, fundada por Rumford en Londres (1 799) y animada por científicos como Davy y Faraday. Pronto se iniciará también una colaboración internacional plasmada en la celebración de congresos como los de estadística (1853), química (1860), botánica (1864) y medicina (1867).

Otro hecho interesante que hay que destacar es el de la conversión de la actividad científica en un acontecimiento de amplias repercusiones sociales, es decir, en un fenómeno sociológico. Las aplicaciones de la física en la industria, o de la biología en la medicina, provocaron el cambio de actitud de la sociedad frente a los avances científicos. Los gobiernos que desde el siglo XVI impulsaron la fundación de universidades y academias, iniciarán, a partir del despotismo ilustrado y por influencia de los enciclopedistas, una actuación que se podría calificar de «política científica».

Estas acciones supondrán la extensión de la enseñanza superior, cambios en los planes de estudio y realización de tareas científico-técnicas fomentadas y financiadas por las monarquías del Antiguo Régimen. Academias, observatorios y expediciones científicas se prodigarán en Europa durante el siglo de las Luces.

Una derivación del telégrafo que finalmente tuvo un efecto igual de grande fue el teléfono. Patentado en Estados Unidos en 1876 por Alexander Graham Bell, y perfeccionado por el inventor Tomás Alva Edison, el teléfono pronto se asentó. En 1884, la compañía de Bell puso en funcionamiento la primera línea de larga distancia entre Boston y Nueva York. Las redes de cables, parte vital para las comunicaciones, fueron desarrolladas en varias naciones. Marcar los números sin recurrir a la operadora aceleró el proceso telefónico y, poco después, la mayoría de las grandes ciudades contaron con sus propias redes.

El teléfono en una exposición: Es casi seguro que Bell no se diese cuenta de la inmensa trascendencia de su invento, pero lo cierto es que en el mes de julio de 1876, se celebró en Filadelfia una gran exposición con motivo de la conmemoración de la independencia de Estados Unidos.

Es muy posible que Bell no pensara llevar su invento a dicha exposición, puesto que tal vez consideraba que el aparato, compuesto por un receptor harto rudimentario, un transmisor y un hilo que hacía vibrar la membrana metálica, que Bell ya había patentado con el nombre de teléfono, no era digno de figurar en una exposición de tanto prestigio.

Pero intervino el amor. Efectivamente, Bell fue a la estación de Boston a despedir a su amada que, junio con su padre, se marchaba a Filadelfia. El joven subió a un vagón, incapaz de contener los impulsos de su enamorado corazón, y así llegó a la capital di Pennsylvania. Luego, pidió por carta a Watson que le enviase el aparato, y logró exponerlo en un rincón

Durante varios días nadie se acercó a conocer su invento. Pero de pronto se produjo el milagro. El mismo  día en que la Comisión se disponía a conceder los diversos premios establecidos, un personaje con gran séquito, nada menos que el emperador Pedro, del Brasil, se acercó a la mesa de Bell. Lo cierto era que el emperador había conocido al joven Bell cuando éste enseñaba a los sordomudos en su país. Tan pronto como el Emperador reconoció a Bell, lo abrazó, con gran asombro de todos los presentes y, como es natural, todos se interesaron por el inventor y su invento.

El propio Emperador, después de oír unas palabras a través del receptor, exclamo:
—Este aparato habla!

Estas palabras cambiaron por completo la vida y la fortuna de Alexander Graham Bell. La aludida Comisión estudió el aparato, y de aquella exposición surgieron dos cosas importantísimas en la vida de Bell: su boda con su amada y la intervención de su suegro en las patentes del joven, todo lo cual tuvo como epílogo la producción del teléfono en serie, su perfeccionamiento y su propagación por todo el mundo.

Sólo hubo una amargura en medio de su triunfo:
Bell, que había dedicado gran parte de su juventud a enseñar a vocalizar y hablar a los sordomudos, jamás consiguió que su linda esposa, sordomuda también, llegase a hablar y a oír a su marido, ni por teléfono ni de viva voz.

ANTECEDENTES DE LA ÉPOCA: Las ventajas materiales constantemente crecientes y a menudo espectaculares, generadas por la ciencia y la tecnología, dieron lugar a un aumento de la fe en los beneficios de esta rama del saber y el hacer humanos. Aun la gente ordinaria que no entendía los conceptos teóricos de la ciencia estaba impresionada por sus logros.

La popularidad de los logros científicos y tecnológicos condujo a la extendida aceptación del método científico, basado en la observación, el experimento y el análisis lógico, como único camino a la verdad y a la realidad objetivas. Esto, a su vez, minó la fe de mucha gente en la revelación y la verdad religiosas. No es por accidente que el siglo XIX llegó a ser una época de creciente secularización, que de manera particular se manifiesta en el crecimiento del materialismo o la creencia de que todo lo mental, espiritual o sentimental era, sencillamente, una excrecencia de las fuerzas físicas.

La verdad había de encontrarse en la existencia material concreta de los seres humanos, no como la imaginaban los románticos, en las revelaciones obtenidas por destellos del sentimiento o de la intuición.

La importancia del materialismo fue asombrosamente evidente en el acontecimiento científico más importante del siglo XIX, el desarrollo de la teoría de la evolución orgánica mediante la selección natural. Sobre las teorías de Charles Darwin podría construirse un cuadro de los seres humanos como seres materiales, que eran parte sencillamente del mundo natural.