Millikan y el Electrón

Vida y Obra de Russell Wallace Teoria de la Seleccion Natural

Alfred Russel Wallace (8 de enero de 1823 – 7 de noviembre de 1913) fue un geógrafo y naturalista inglés. Wallace es conocido sobre todo por haber alcanzado el concepto de selección natural, central en la teoría biológica de la evolución, independientemente de Charles Darwin.

wallace russelEl nombre de Darwin y la evolución están inseparablemente ligados, a pesar de que el primer anuncio público de la teoría de lal selección natural no lo realizó Darwin solo, sino conjuntamente con Alfred Russell Wallace. Aunque hacía muchos años que Darwin había concebido la idea de la evolución por la selección natural, estando ya por hacerla pública recibió una carta de Wallace, en la que le exponía una teoría casi análoga a la suya.

Eran tan semejantes, que Darwin, en una carta dirigida a Lyell, escribió: … “si Wallace hubiera poseído el esbozo del manuscrito que redacté en 1842, no habría podido hacer él un resumen mejor y más corto”. Así que, en julio de 1858, Darwin y Wallace presentaron una comunicación conjunta a la Linnean Society.

A lo largo de su vida, Wallace continuó defendiendo la teoría de la evolución, aunque sus puntos de vista presentaban ligeras diferencias con los de Darwin. Él opinaba que la supervivencia del mejor adaptado era el factor fundamental en la lucha por la vida, con lo que no estaba de acuerdo Darwin. Wallace también afirmaba que la selección natural no podía explicar ciertas características de los seres humanos: su inteligencia, la pérdida del pelo del cuerpo y el desarrollo especializado de las manos.

Wallace nació en Usk, Monmouthshire (Gran Bretaña), en 1823. Aunque estudió arquitectura y topografía, ya a los veinte años se sintió interesado por la historia natural, vocación que mantuvo hasta el fin de su vida. Fue un naturalista autodidacto que viajó mucho por América del Sur y sudeste de Asia, recogiendo ejemplares para su colección. Durante su estancia en Sudamérica, acompañado del naturalista inglés H. W. Bates, se mostró muy interesado por la extraña semejanza en la disposición de los colores,

observada en insectos entre los que no existía ninguna relación, y dedicó muchos de sus escritos a estos casos de semejanza.

Sobra maestra es, sin lugar a dudas, The Geographical Distribution of Animals (La distribución geográfica de los animales), publicada en 1876, que aún está considerad como un trabajo importante en materia d zoogeografía, y, en este campo biológico su nombre se ha perpetuado en la llamad línea Wallace.

Esta línea separa el archipielago Malayo en dos regiones, cada una con sus plantas y animales característicos. Por ejemplo, al este de la línea, los únicos mamíferos nativos encontrados son los marsupiales (mamíferos provistos de bolsa) y los monotremas (mamíferos ovíparos); al oeste sólo se encuentran mamíferos placentario Esto sugirió a Wallace la idea de que h islas del oeste habían estado, en otros tiempos, unidas a Asia, y las del este, a Australia La línea Wallace pasa entre Borneo y las Célebes al norte, y entre las islas de Bali y Lomboc al sur.

Su mente privilegiada le condujo a investigar muchos problemas relacionados con evolución, como la construcción de nidos por los pájaros —es decir, hasta qué punto trata de una cosa instintiva o producto la inteligencia—, el significado de las miradas diferenciaciones de color que se encuentran entre pájaros de ambos sexos de misma especie, y el hombre y su evolución

Al final de su vida, fue un detractor enérgico de la práctica de la vacunación, recien introducida, y se hizo espiritista. Estuvo siempre dispuesto a señalar el papel principal que Darwin había desempeñado en formulación de la teoría de la evolución deducida por ambos, independientemente Wallace falleció en 1913.

Biografía Rutherford Modelo Atomico Configuración del Atomo

Biografía Rutherford – Modelo Atómico

Temas Relacionados:  ¿Que es un átomo?  Energía Nuclear   Física Moderna  Fisión Nuclear

Ernesto Rutherford (1871-1937) fue uno de los mayores científicos experimentales de todos los tiempos. Nació enBrightwater, cerca de Nelson (Nueva Zelandia), de una familia de colonos ingleses.

Ernesto Rutherford fisicoAunque fue un buen alumno en la escuela, Ernesto no mostró una especial inclinación por la ciencia. En 1890, ingresó en el Canterbury College, de Christchurch, Nueva Zelandia, donde su aptitud científica se hizo patente, graduándose con las mejores notas, tanto en ciencias como en matemáticas.

Continuó en Christchurch en trabajos de investigación, y desarrolló un detector de ondas de radio, que dependía de la magnetización del hierro. En 1894, la Universidad de Cambridge, en Inglaterra, sacó a concurso una beca con destino a un posgraduado de Nueva Zelandia, y Rutherford la ganó. Llegó a Inglaterra en 1895, tras pedir dinero prestado para el viaje.

En Cambridge, J. J. Thomson era profesor del famoso laboratorio Cavendish, y, en aquel tiempo, estaba trabajando en experimentos sobre la conducta de los gases después de ser expuestos a los recientemente descubiertos rayos X. Rutherford dejó de trabajar en su detector de radio-ondas, que eventualmente Marconi tuvo en cuenta y a partir del cual se estableció la potencialidad de las emisiones de radio, y se unió a J. J. Thomson en su trabajo.

Cuando Rutherford estaba colaborando con Thomson en sus experimentos, en 1896, se anunció en París el descubrimiento de la radiactividad. En 1897, Thomson hizo pública su demostración de la existencia de los electrones, pero Rutherford estaba ya trabajando en experimentos sobre la conducta de los gases, después de haber sido expuestos a la radiactividad.

Durante estos años, observó muchas de las propiedades de ésta, y se familiarizó con los métodos experimentales de dicha ciencia. En 1898, Rutherford solicitó una plaza de profesor de investigación en la Universidad de McGill, de Montreal (Canadá), lográndola cuando tenía 28 años de edad, y dando comienzo así al primer gran período de descubrimientos científicos de su vida.

En 1901, el químico inglés F. W. Soddy colaboró con Rutherford en sus investigaciones sobre radiactividad, y, al cabo de un año, comprobaron que un átomo radiactivo se transforma en otro átomo diferente por emisión de radiación. Juntos, publicaron trabajos sobre la causa y naturaleza de la radiactividad, y acerca de la teoría de la “transformación espontánea”.

Rutherford también se preocupó de las partículas alfa (las partículas beta fueron identificadas por entonces como electrones), y publicó un trabajo general sobre los cambios radiactivos, en 1903. En 1904, dio a la imprenta su primer libro, titulado Radiactividad.

En cinco años, Rutherford, con la ayuda de Soddy, resolvió muchos problemas de esta nueva ciencia, observando que los átomos radiactivos se transforman espontáneamente en otros átomos, y definió el concepto de isótopos. En 1906, la Universidad de Manchester le ofreció ocupar la cátedra de un profesor que había prometido jubilarse si Rutherford aceptaba. Rutherford aceptó, y, en 1907, se trasladó a Manchester, que tenía laboratorios nuevos y bien equipados. Aquí empezó su segundo período de descubrimientos, probablemente el más importante y de seguro el más feliz de su vida.

Se encontró que, cuando una hoja metálica era bombardeada por partículas alfa, la mayor parte de estas partículas no se desviaban, o se desviaban en ángulos muy pequeños, cuando pasaban a través de la hoja. Sin embargo, algunas se desviaban un gran ángulo, y, en realidad, eran rechazadas por la hoja. Rutherford probó, matemáticamente, que tal comportamiento sólo se podía explicar con su modelo del átomo “nuclear”, es decir, un átomo en que un pequeño núcleo cargado positivamente está rodeado de un número de electrones. Cuando las partículas alfa pasan cerca del núcleo, son repelidas fuertemente (las cargas positivas se repelen entre sí), produciéndose un gran cambio de dirección. Cuando pasan a mayor distancia del núcleo, la desviación es muy pequeña.

En 1908, Rutherford recibió el Premio Nobel de Química, por sus trabajos en radiactividad, estando, por entonces, ocupado en investigar las propiedades de las partículas alfa, con la colaboración de varios de sus quince alumnos. Una serie de experimentos le llevó a la conclusión de que dichas partículas eran, en realidad, átomos de helio, y para probarlo efectuó en 1909 una sencilla e inteligente experiencia.

Puso una sustancia (radón), que emitía partículas alfa, fuera de un tubo donde se había hecho el vacío y se había cerrado después, teniendo un electrodo metálico en cada extremo. Pasados unos días, se aplicó una corriente de alto voltaje a los electrodos metálicos, y el espectro de la descarga eléctrica obtenida probó, sin duda alguna, la existencia de átomos de helio en el tubo, Las partículas alfa debían haber atravesado las paredes del tubo, almacenándose allí, y las partículas alfa tenían que ser átomos de helio. En realidad, sabemos hoy que las partículas alfa son núcleos de helio.

En 1911, Rutherford propuso su idea más revolucionaria relativa a la existencia del núcleo atómico. Hasta entonces se creía que el átomo era una esfera cargada positivamente, con electrones cargados negativamente, moviéndose en su interior. Dos de sus colaboradores descubrieron que, cuando se dejaba que muchas partículas alfa chocasen con una hoja fina de metal, varias de las partículas retrocedían, saltaban hacia atrás. Para explicarlo, Rutherford supuso que la carga positiva total del átomo se concentraba en un núcleo muy pequeño y que los electrones ocupaban el espacio externo del núcleo.

Esto, en 1911, era una idea revolucionaria, aunque hoy día está totalmente aceptada, y se la ha aceptado como el mayor cambio ocurrido en nuestra idea sobre la materia, desde el tiempo de los griegos. Esta teoría del núcleo sentó las bases para una nueva ciencia: la física nuclear.

^En 1912, Niels Bohr, el gran científico danés, se unió a Rutherford, y desarrollaron el modelo atómico de Bohr, con lo que se logró una aceptación general del átomo nuclear. En 1914, estalló la primera guerra mundial, y los científicos hubieron de abandonar los laboratorios. Tras algún tiempo de ausencia de Manchester, Rutherford volvió a su investigación académica, en el laboratorio desierto, dando comienzo a su tercer período de descubrimientos. Y, en 1918, ya estaba convencido de que podía demostrar experimentalmente la trasmutación artificial del nitrógeno (es decir, el cambio del átomo de nitrógeno en un átomo diferente).

Rutherford sólo puede ser igualado por Faraday en lo que respecte a la sencillez de los aparatos empleados, y su claro visión del significado de ¡os resultados experimentales. Sus tres grandes contribuciones a la teoría atómica fueron:
1°) Descubrió las leyes principales de la radiactividad y la Química de los elementos radiactivos naturales (1901-1906); 2°) descubrió el “núcleo” y ayudó al desarrollo del modelo nuclear del átomo (1909-1914), y 3°) descubrió la “trasmutación artificial” del nitrógeno (1917-1920).Rutherford estableció la naturaleza de las partículas alfa, recogiéndolas en un tubo de vidrio donde se había hecho el vacío.  Pasados unos días, el nivel de mercurio se había elevado, desplazando las partículas hacia la parte superior del tubo. El espectro de descarga entre los electrodos indicó la presencia de helio.

En 1919, Rutherford fue nombrado profesor del laboratorio Cavendish, de Cambridge, y rápidamente confirmó la certeza de dicha trasmutación artificial del nitrógeno. Para ello, hizo pasar partículas alfa provenientes del polonio, a través del gas nitrógeno; cuando una de ellas chocaba con un núcleo de nitrógeno, se desprendía un núcleo de hidrógeno y se formaba un núcleo de oxígeno. En 1920, llamó al núcleo de hidrógeno protón.

Y, pese a la gran cantidad de trabajo experimental que desarrollaba, Rutherford se encontró más ocupado cada vez en dirigir y organizar la investigación científica. El Cavendish creció en tamaño y fama bajo su dirección, pero ahora los descubrimientos eran realizados por la serie de hombres que trabajaban a sus órdenes, a los que él ayudaba con entusiasmo e interés. Ernesto Rutherford fue presidente de la Royal Society, desde 1925 a 1930, y, en 1931, fueron reconocidos públicamente sus grandes descubrimientos, mediante la concesión del título de Barón Rutherford de Nelson.
En plena actividad y con creciente optimismo en sus empresas científicas, la muerte sorprende a Rutherford, luego de una breve enfermedad, en octubre de 1937, siendo sus restos depositados en la abadía de Westminster.

DETECCIÓN DE PARTÍCULAS ALFA

esquema deteccion particula alfa
Una partícula alfa se puede detectar cuando choca con una pantalla de sulfuro de cinc, ya que produce una luz observable a través de un ocular (izquierda). Este método fue empleado por William Crookes. Ernesto Rutherford, junto con H. Geiger, inventó un método eléctrico para detectar partículas simples. En el aparato (derecha), se introducían, por unos instantes, partículas alfa en la cámara “C”. En esta cámara, el cilindro metálico “M” rodeaba el alambre aislado “W”, y se aplicaba un voltaje alto entre “M” y “W”. Cuando una partícula alfa chocaba con una molécula de gas en “C”, la molécula perdía un electrón, y éste electrón era acelerado en el campo eléctrico, chocando con una segunda molécula de gas, con lo que se liberaba un segundo electrón. Y volvía a repetirse, varias veces, toda la operación. De esta manera, se obtenía un flujo de electrones, que podía detectarse como un impulso eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°60
El Estallido Científico en el Siglo XX Trevor Williams

Consecuencias del Progreso Cientifico y Tecnico Los Cambios Sociales

PROGRESOS EN LA CIENCIA Y TÉCNICA
CONSECUENCIAS DEL PROGRESO TÉCNICO:

El progreso brindó acceso a una vida más saludable y larga, más cómoda y descansada y con mejores oportunidades de desarrollo intelectual y de esparcimiento. El progreso ha traído también consigo problemas cuya solución se busca. La lucha exitosa contra las enfermedades prolongó la vida humana y la disminución de la mortalidad infantil.

Ambos provocaron un súbito incremento de la población mundial, llamada “explosión demográfica”. Este crecimiento vertiginoso (unos 70 millones por año) nos conduce a un tota! de 4 000 millones de seres humanos. Para atenderlos, debe aplicarse la explotación intensiva de los recursos naturales. Hay que afrontar, además, el problema de la enorme masa de residuos descartados por los procesos industriales que contamina y “destruye” la naturaleza (problema ecológico).

El extraordinario incremento del consumo de combustibles ocasionó graves problemas de escasez y de contaminación. Ambos pueden ser solucionados mediante el aprovechamiento de la energía solar. La superpoblación y la mecanización del campo provocan la concentración de vastas masas humanas en las ciudades, origen de numerosos problemas de convivencia en todos sus aspectos, naturales y sociales.

Los países menos desarrollados fueron incapaces de incrementar suficientemente su producción respecto del aumento de su población. Como consecuencia rebajan los niveles de vida hasta provocar en ocasiones “el hambre” de vastos sectores.

CULTURA La filosofía reflejó los profundos cambios ocurridos en las condiciones de vida: gran libertad de decisión en la esfera personal y mayor tiempo disponible dieron al individuo oportunidad de enfrentarse mejor consigo mismo. El ateísmo y la incredulidad predominantes a principios de siglo tendían a cerrar el camino de la explicación y justificación de la existencia humana.

Surgen entonces escuelas de pensamiento que encaran el problema, corno el existencialismo, del francés Jean Paul Sartre. El positivismo lógico de John Dewey, norteamericano, y Bertrand Russell, inglés, que afirma la inutilidad de buscar el significado de la vida o de tratar de comprender la naturaleza del Universo. Jacques Maritain, católico francés, desarrolló el tomismo, doctrina basada en las enseñanzas de Aristóteles y Santo Tomás de Aquino; ofrece una explicación del Universo por el razonamiento y la lógica, fundado en ideas básicas de la fe religiosa.

La Sociología estudió los problemas vitales surgidos de las multitudinarias concentraciones urbanas: el “conformismo”, reemplazante de la propia personalidad por la de la masa; la “alienación”, angustiosa sensación de soledad y aislamiento, propia del anonimato de las grandes ciudades.

El Psicoanálisis, originado en los trabajos del doctor Sigmund Freud, trata las perturbaciones anímicas provocadas por esta situación. La novela predomina en la literatura contemporánea: expone ideas filosóficas (novela de tesis), problemas sociológicos, descripción de ambientes y caracteres personales. La novela informativa, de escaso valor literario, pero muy difundida expone temas estudiados por sus autores en forma muy minuciosa.

La pintura. En la búsqueda de nuevas formas de expresión estética se destacó el cubismo del español Pablo Picasso; su “pintura abstracta”, así llamada por no reproducir las formas de la vida real que representa por “símbolos”, figuras convencionales. El surrealismo, cuyo exponente actual es Salvador Dalí, español, muestra los pensamientos y sueños del hombre contemporáneo. La música y la escultura se caracterizaron por la búsqueda de formas de expresión no convencionales.

La Arquitectura destacó su funcionalidad y simplicidad; sintió la influencia de nuevos elementos de construcción, como la del hormigón armado. Sobresalieron el suizo Carlos Jeanneret (Le Corbusier, imagen izq. ) y el norteamericano Frank Lloyd Wright. La pugna entre dos grupos de naciones esencialmente opuestos, encabezados por los Estados Unidos y por Rusia, constituye el problema angustioso de la Historia actual.

En la práctica, la existencia de un tercer grupo de naciones “no comprometidas” tiene mucho de ficción porque están infiltradas por uno u otro bando. Los organismos internacionales que persiguen el fin supremo del mantenimiento de la paz como las Naciones Unidas, de permanentes gestiones activas, y asambleas periódicas, y el Parlamento Europeo, órgano de la Liga de las Naciones, que se reúne periódicamente, procuran encontrar soluciones razonables y equitativas a los intereses en pugna. Los gastos militares absorben directa e indirectamente la mayor parte de los presupuestos nacionales, substraídos de esa manera a un más humano destino, exigido por las necesidades apremiantes: alimento, indumentaria, salud, ocupación remunerada, servicios sociales, educación, en constante crecimiento por el aumento de la población mundial, que excede el de los medios para satisfacerla.

Una confrontación armada dejaría al virtual vencedor poco menos destruido que el vencido y posiblemente incapacitado para reponerse. ¿El fin de nuestra civilización? La respuesta debe darla la fe en un Dios Creador que ama a sus criaturas, que ha comprometido ampararlas en las grandes crisis, a través de los siglos.

Todos los credos que sustentan esta. esperanza: católicos, ortodoxos, iglesias cristianas disidentes, musulmanes, judíos, religiones de oriente, cifran su confianza en la Promesa.

El Papa Juan Pablo II, culminando la doctrina de la Iglesia de la fraternidad en el Padre Común y su Misericordia, ha recogido en sus giras por los más diversos ámbitos del mundo la formidable adhesión de millares de oyentes, en demostraciones colectivas jamás igualadas. Los católicos como él, y los coincidentes en la divina Bondad de un Ser Supremo, pongamos nuestro afán en seguirlo y prestémosle nuestro apoyo entusiasta.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada: Historia 3 de José C. Astolfi

Grandes Cambios Cientificos Tecnicos Sociales en el Siglo XX

Grandes Cambios Científicos Técnicos Sociales en el Siglo XX

PROGRESOS EN LA CIENCIA Y TÉCNICA
A partir de la década de 1940, el progreso de la ciencia aplicada y el desarrollo de la técnica, adquirieron un ritmo vertiginoso impulsados por la guerra y la competencia comercial. Los Estados Unidos, empeñados en mantener la preponderancia mundial de su liderazgo tecnológico, encabezaron estas actividades.

La investigación, hasta entonces limitada al laboratorio y a la Universidad, fue notablemente ampliada. Hoy la llevan a cabo grandes empresas fabriles privadas y entes estatales, que invierten cuantiosos recursos en refinado instrumental de precisión. La investigación, cuidadosamente planificada de antemano, es confiada a profesionales organizados en el trabajo en equipo.

Como consecuencia de esto, también se ha extendido el llamado desarrollo, consistente en encontrar técnicas adecuadas para aplicar los descubrimientos científicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaEste progreso de nuestro siglo fue posible gracias a la obra de Alberto Einstein, nacido en Alemania en 1879. Estudió física en el Kaiser Wilhelm Instituto de Berlín. En 1921 ganó el Premio Nobel de ese año. Pasó a los Estados Unidos en 1933 para eludir la persecución nazi contra los judíos.

Continuó su labor en la Universidad de Princeton, hasta fallecer en 1955. Sus teorías, de extraordinaria audacia intelectual, modificaron radicalmente las ciencias físicas, dotándolas de nuevas bases filosóficas. Con el conjunto de sus ideas constituyó su Teoría de la Relatividad, ésta afirma que la materia puede transformarse en energía.

Niels Bohr, Enrico Fermi y James Chadwick, entre otros, profundizaron el estudio de la constitución íntima del atonto. Sus primeras aplicaciones fueron de índole militar. En el centro científico de Oak Ridge (EE. UU.) se fabricó la primera “bomba atómica”, cuyo extraordinario poder proviene de la transformación de materia en enegía. Hoy en día son múltiples los usos pacíficos de la energía atómica.

En 1957 entró en funcionamiento en Shippingport, cerca de la ciudad de Pittsburgh, la primera central nuclear productora de electricidad comercial. Luego se multiplicaron las unidades de ese tipo por todo el mundo. El submarino “Nautilus” fue el primer buque impulsado por energía atómica, seguido por rompehielos, portaaviones y barcos mercantes. Se tratan actualmente proyectos de navíos espaciales atómicos para explorar otras galaxias.
Partículas radiactivadas se utilizan en diagnósticos y tratamientos médicos y para la detección de fallas en máquinas.

El rayo láser —haz concentrador de luz—, descubierto por Teodoro Maiman en 1960, se emplea tanto en cirugía como en corte de metales; otra aplicación en proyecto es la transmisión de energía a distancia.

La exploración del espacio exterior se inició con trabajos sobre proyectiles guiados (“bombas voladoras”) efectuados en Alemania durante la guerra. Terminada la contienda, estos científicos, ingenieros y técnicos pasaron a los Estados Unidos y a Rusia, y allí continuaron sus trabajos. Entre ellos estaba }, director del programa espacial norteamericano y responsable de la llegada del hombre a la luna.

El 4 de octubre de 1957, Rusia colocó en órbita al Sputnik, primer satélite artificial de la Tierra. El 12 de abril de 1961 hizo lo propio con Yuri Gagarin, el primer astronauta.

El 20 de julio de 1969, a las 23 (hora argentina) pisó la Luna el norteamericano Neil Armstrong. Inmediatamente después lo hizo su compañero Aldrin. Collins, el tercer componente de la tripulación, permaneció en órbita lunar. La hazaña, conocida como Misión Apolo 11, fue transmitida por televisión en vivo y en directo y vista con toda nitidez en nuestro país. Vueltos a la Tierra tres días después, luego de un viaje que en total insumió ocho días, fueron largamente agasajados.

Siguieron otras expediciones en que los astronautas exploraron parte de la superficie lunar recorriéndola en vehículos. Los rusos realizaron una tarea similar empleando artefactos no tripulados.

Otros navíos no tripulados (sondas espaciales) enviaron fotografías, imágenes televisivas y gran acopio de informaciones desde Marte y Venus, extendidas a los demás planetas de nuestro sistema solar.

Los satélites de comunicaciones facilitan el uso de la televisión y el teléfono y su empleo intercontinental. Satélites en órbita llenan otros objetivos como la predicción del tiempo, descubrimiento de yacimientos minerales subterráneos, tareas geográficas, y como radiofaros para guía de aviones y barcos. Están dotados de cámaras e instrumentos de muy alta sensibilidad, ya que pueden distinguir un objeto del tamaño de una pelota de golf desde una altura de 500 km.

En los últimos años se ha encarado la exploración de las profundidades y del suelo oceánico, donde existen ricos yacimientos minerales. El estudio de vegetales y peces desconocidos hasta entonces, hallados a miles de metros de profundidad, esclarece y aumenta los conocimientos sobre la evolución de las especies.

La astronomía recibió un notable impulso debido al progreso técnico. La observación estelar adquirió gran precisión mediante telescopios puestos en órbita: libres de la interferencia de la atmósfera. El análisis espectrográfico (descomposición por el prisma de la luz de las estrellas) permitió detectar la presencia de elementos químicos. La información directa obtenida por los vehículos espaciales en los planetas y la utilización de gigantescas antenas en forma de pantalla (radiotelescopio) que captan ondas electromagnéticas y radiales emitidas por cuerpos celestes, aumentaron notablemente el conocimiento del cosmos.

Mencionaremos los importantes descubrimientos de los “agujeros negros“, inmensas extensiones donde la materia se concentra hasta adquirir densidades imposibles de imaginar, y los “quasars”, objetos que emiten enorme energía.

La electrónica nació con el invento de la válvula triodo, obtenida por Lee De Forest en 1907. Tomó como punto de partida experiencias de Edison sobre descargas eléctricas en el vacío. La válvula encontró rápidamente aplicación amplificando señales de radiofonía. Más tarde fue un elemento vital en la construcción de computadoras.

La televisión comercial, iniciada por Alien B. Du Mont en 1939, extendió el campo de la electrónica. El descubrimiento de los semiconductores (elementos que permiten el paso de la corriente eléctrica en un solo sentido), la invención del transistor, los circuitos impresos y la miniaturización han erigido a la electrónica en técnica indispensable para la vida del hombre.

Las investigaciones de Luis de Gouffignal y Vannevar Bush abrieron el camino a la construcción de la primera computadora, por sistema mecánico. Fue completada en abril de 1944 por Howard Aiken. John Mauchly, de la Universidad de Pennsylvania, construyó en 1946 a ENIAC, nombre de la primera computadora electrónica a válvulas. Los avances posteriores de la electrónica multiplicaron las posibilidades de funcionamiento y la perfección de la computadora.

PROGRESOS EN LA CIENCIA Y TÉCNICA

La cibernética, fruto de los trabajos de Norberto Wiener y su equipo del Intitulo Tecnológico de Massachussets (M.I.T.), recibió luego importantes aportes, como el de Herbert Simón, de la Universidad de Chicago. Esta disciplina estudia el mecanismo de funcionamiento de la mente humana y luego lo reproduce, mediante el uso de computadoras, para la dirección automática de procesos industriales y otros de la más variada índole.

Una aplicación es el sistema de guía de proyectiles (misiles) que viajan miles de kilómetros hacia un objetivo prefijado, corrigiendo automáticamente su curso con referencia a la posición de las estrellas.

La Química investigó profundamente la naturaleza de las reacciones utilizando los conocimientos de la física nuclear y de otras disciplinas afines, como la termodinámica y la metalurgia. Grandes progresos brindó el empleo del microscopio electrónico.

Está basado en la ampliación de la imagen por un campo magnético, fenómeno observado por Luis de Broglie en 1932. La espectrografía y !a cromatografía (separación de elementos por filtración), agilizaron los procedimientos de análisis.

La aparición de los productos sintéticos data de 1931, con la obtención del neoprene (sustituto de la goma) porNiewland y Garothers. Este último inventó el nylon en 1937. Las fibras artificiales y los plásticos tienen infinidad de aplicaciones. Los últimos descubrimientos permiten obtener proteínas alimenticias a partir del petróleo.

La Biología y la Medicina, al par de otras ciencias, se vieron favorecidas por la utilización del microscopio electrónico. Facilitó el hallazgo y el estudio de los virus, responsables de enfermedades muy difundidas como la gripe, la viruela, etc. La lucha prosperó con el descubrimiento de las vacunas, como la de la poliomielitis (parálisis infantil) realizado por los doctores Jonathan Salk en 1954 y Albert Sabin, y con el uso de antibióticos: la penicilina, descubierta por Fleming en 1930, la sulfamida, por Domagk en 1935, y la estreptomicina, porWaksman en 1940.

La existencia de las hormonas, hallada por Claude Bernard, fue seguida por el aislamiento de las mismas, la adrenalina, en 1903, y la insulina, descubierta por Haig, entre otras. Son utilizadas en el tratamiento de enfermedades. El control del funcionamiento de los órganos que las secretan constituye la endocrinología.

El estudio de las vitaminas, iniciado por el alemán C. Funk en 1912, su obtención y posterior producción hicieron posible la erradicación de las enfermedades provocadas por la falta de alguna de aquéllas, como el escorbuto, el beri beri y ciertas formas de anemia. En algunos países se agregan vitaminas a los productos de consumo masivo (pan, leche, etc.) para mejorar la dieta alimentaria.

Se difundió el transplante de órganos y la colocación de aparatos mecánicos o electrónicos en el cuerpo humano. Se extendió el uso de elementos radiactivos y se facilitó la exactitud del diagnóstico, mediante sondas de fibra óptica, que permiten ver en el interior del cuerpo humano (por ejemplo en venas y arterias y en el sistema gástrico) y aparatos de tomografía computada que trazan verdaderos mapas radiográficos en tres dimensiones.
La investigación más reciente profundiza el conocimiento del origen de la vida y las leyes de la herencia biológica mediante el estudio de los genes.

Crick, Watson y Wilkins descubrieron en 1960 el ácido deoxiribonucleico (DNA), compuesto fundamental del gen que rige las leyes de la herencia. Experiencias de ataque por bacterias permiten modificar la estructura molecular del DNA, y de ese modo producir plantas y animales de características más convenientes.

La mecanización y el uso intensivo de productos químicos (herbicidas, pesticidas y abonos sintéticos), revolucionó la agricultura. Aumentó el rendimiento, los cultivos se extendieron a zonas anteriormente no aptas: se obtuvieron semillas y frutos de mejor calidad y mayor tamaño.

La inseminación artificial mejoró la calidad del ganado. Con el motor a reacción el transporte aéreo adquirió gran preponderancia, aumentando su velocidad y capacidad de carga; se transportan más de 300 pasajeros por vuelo. El Concorde, franco británico, viaja a una velocidad de crucero de 2.200 kilómetros por hora.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada: Historia 3 de José C. Astolfi

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La “Máquina de Dios”, como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la “gran ciencia”,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL “GRAN COLISIONADOR DE HADRONES”
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Suiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Naturaleza de la Materia

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. “Y entonces Gauss, ¿qué?”, preguntó el asombrado von Humboldt. “Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.”

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo “Halla la suma de los 100 primeros números enteros”.

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por “malgastar”su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al “análisis situs” y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte “shock”. Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra “Disquisitiones Arithmeticae”, obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del “nuevo planeta”, llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton La Fuerza de Gravedad
La Atracción Terrestre

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

El rol de las manzanas en la elaboración de la teoría de la gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco. Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos. Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado “natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra. La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos. La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna. ¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula. Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol. Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos. Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea. En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol. Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento. Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB). En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B. Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo). Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable. Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna) Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción. Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla. Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto. En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima. Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad “de escape”, muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y “desviarla” de alguna manera.

• Los animales sometidos a una “gravedad” elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que “cae” como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Teorias Fisicas Que Fracasaron Errores de la Fisica Erroneas

PRIMERAS TEORÍAS FALSAS: Platón reconocía que el peso de los cuerpos no es más que el efecto de una fuerza que se ejerce sobre ellos de arriba a abajo, lo que equivale a una forma peculiar de concebir la gravedad. El autor del Timeo conoce también la capilaridad y refiere algunos experimentos realizados sobre este particular.

En cinemática, distingue el movimiento progresivo y el movimiento rotativo, reconoce la ley de conservación del plano de rotación en el movimiento de la peonza, apuntando así hacia la invención del giróscopo. Hay que insistir también en el hecho de que Platón recomienda repetidas veces la investigación experimental a la que concede una gran importancia.

La física de Aristóteles de Estagira (384-322) supone, por el contrario, una regresión bastante perjudicial en el terreno científico. El Estagirita rechaza formalmente el atomismo y sustituye la explicación cuantitativa de las cosas por una explicación cualitativa particularmente infantil. Mal matemático, pretende no querer fiarse más que de los datos de los sentidos. y como para él el tacto es el más fundamental de todos, hace dimanar todas las cosas complejas de una simple superposición de lo cálido, de lo frío, de lo seco y de lo húmedo a una hipotética materia prima sin atributo ni cualidad, lo que inevitablemente nos hace pensar en el famoso “cuchillo sin hoja al que le falta el mango” de que habla Rabelais.

Para Aristóteles hay cuerpos pesados y cuerpos ligeros: los primeros tienden hacia abajo y los segundos hacia arriba. Ya no hay ni fuerza centrífuga ni fuerza centrípeta, sino simplemente cualidades contrarias. Además, Aristóteles ha prestado un lamentable servicio a la física con su introducción de la quintaesencia y del éter que de aquí en adelante encontraremos como punto de partida de buen número de teorías, incluso en nuestros mismos días. Añadamos que la virtud de la quintaesencia es la de estar animada de un movimiento rotativo que contrasta con los movimientos ascendentes y descendentes de los cuerpos ligeros o pesados y tendremos una idea de toda la cinemática de Aristóteles.

El movimiento, según el Estagirita. se explica metafísicamente mediante el paso de la potencia al acto, concepto cuya claridad no es precisamente deslumbrante. Como contrapartida, la mecánica aristotélica admite, lo mismo que la de Pitágoras y la de Platón, que sólo el contacto puede explicar las acciones de unos cuerpos sobre otros.

Quizá conozca el lector la extraña balística de Aristóteles según la cual toda trayectoria se divide en tres partes. En la primera aparece el movimiento forzado, en la segunda el movimiento mixto y en la tercera el movimiento natural, lo que produce una curva ascendente, una parte mixta horizontal y una curva descendente. Hubo que esperar hasta 1537 después de Jesucristo para ver esta teoría contraria a toda observación refutada por Tartaglia.

La física de Aristóteles perjudicó a la ciencia en el curso de la Edad Media cuando sus conceptos fueron asimilados e impuestos a todo el mundo cristiano por Santo Tomás de Aquino. Durante los doscientos cincuenta años que siguieron a su muerte, Aristóteles fue ignorado por los grandes físicos del mundo antiguo:Arquímedes. Ctesibios y Herón de Alejandría. En efecto, estos tres genios fueron más hombres prácticos que soñadores, y puede decirse que el primero y mayor de todos ellos ha consagrado definitivamente la ruptura entre la metafísica y la física.

Biografía Fibonacci Leonardo de Pisa Aporte a la Matematica Serie de Fibonacci

Se Presenta a continuación, por orden cronológico, a los matemáticos más destacados en el Edad Media.

Leonardo de Pisa (Fibonaccí) (1170-1250)

Jordano Nemorarius (1225 – 1260)

Nicole Oresmes (1323 – 1382)

En este sitio se tratará sobre la vida y obra de Fibonacci

Leonardo de PISA
(FIBBONACI )(1170-1250)

Leonardo de PISA Matemático autodidacta italiano, nacido en Pisa en 1170, cuyo verdadero nombre era Leonardo de Pisa. Pero más conocido fue por el nombre de Fibonacci (nombre que proviene de la abreviatura de filiuis Bonacci, que significa hijo de Bonacci). Falleció también en Pisa en 1250.

Fue el matemático más importante de la Edad Media.

El padre de Fibonacci, Guilielmo, miembro de la familia Bonacci, era un importante mercader. Era el representante de los mercaderes de la República de Pisa en los negocios con Argelia. Esto le permitió viajar mucho, especialmente por el norte de Africa, donde pasó largos periodos de tiempo. Se trasladó allí a los 20 años y es donde aprendió Matemática.

Regresó de sus viajes a Pisa en 1200, donde tuvo buenas oportunidades para recopilar las matemáticas grecorromanas, árabes e hindúes, conocimientos que luego divulgó.

Su principal obra la publicó en 1202 y es Liber Abací (el Libro del ábaco), en el que se encuentran expuestos: el cálculo de números según el sistema de numeración posicional; operaciones con fracciones comunes, aplicaciones y cálculos comerciales como la regla de tres simple y compuesta.

La división proporcional, problemas sobre la determinación de calidad de las monedas; problemas de progresiones y ecuaciones; raíces cuadradas y cúbicas. En él se recomienda de manera contundente el uso de los números hindú-arábigos, los cuales introduce en Europa. De esta manera empieza a utilizarse el sistema para el cálculo, antes se usaba el ábaco.

(Pisa, ciudad de Italia central, capital de la provincia del mismo nombre, en la región de La Toscana, a orillas del río Amo, próximo al mar de Liguria.)

Sus trabajos sobre matemática recreativa se presentaba como historias, que se transformaron en desafíos mentales en el siglo XIII. Dichos problemas involucraban la suma de sucesiones recurrentes, como el problema de las parejas de conejos, que aparece publicado en la tercera sección de este Libro. Dicho problema da origen a la famosa sucesión de Fibonacci (1, 2, 3, 5, 8, 13,…), que él descubrió.

El problema es el siguiente:

Un hombre puso una pareja de conejos en un lugar cerrado. ¿Cuántos pares de conejos se pueden generar a partir de ese par en un año si se supone que una vez por mes, a partir del segundo mes de su vida, cada pareja da origen a otra nueva?.

  1+1=2 5+8=13  
          1+2=3          8+13=21  
                 2+3=5                  13+21=34  
                       3+5=8                            21+34=55  

Cada término de la sucesión se denomina número de Fibonacci (se obtiene sumando los dos números precedentes en la sucesión).

Veamos la resolución del problema:

La primera pareja tiene descendencia el primer mes, así que en este mes ya hay 2 parejas. La primera pareja vuelve a tener descendencia el segundo mes, con Lo que ya

tendríamos 3 parejas. Al mes siguiente procrean la primera pareja y la que nació en primer mes (pues ya tienen dos

meses de vida), habiendo entonces 5 parejas. El cuarto mes procrea, además de esas dos, la que nació el segundo mes, es decir, nacen

tres parejas más, ya tenemos 8 parejas. Podemos seguir haciendo cuentas y obtenemos la siguiente tabla con las parejas que hay cada mes del año:

Meses 1 2 3 4 5 6 7 8 9 10 11 12
Parejas 2 3 5 8 13 21 34 55 89 144 233 377

La respuesta al problema es, por lo tanto, 377 parejas.

Hay muchos lugares en la naturaleza donde sorprendentemente aparece esta sucesión en forma curiosa. Si uno toma ciertas plantas y comienza a partir de la base del tallo a contar las hojas, verá que al llegar a una hoja que está directamente sobre La hoja donde se comenzó el conteo, habrá Llegado a un número de Fíbonacci. Lo mismo ocurre con una planta de lechuga o cebollas.

Las escamas de una piña aparecen en espiral alrededor del vértice. Si contamos el número de espirales de una piña, encontraremos que siempre es igual a uno de los números de la sucesión  de Fibonacci.

Los números de Fibonacci verifican, entre otras, las siguientes propiedades matemáticas:

a) todo número positivo se puede expresar como suma de números de Fíbonacci no consecutivos.

b) dos números consecutivos de Fibonacci son primos entre si.

c) hay solo dos cuadrados perfectos, el 1 y el 144 y dos cubos perfectos, el 1 y el 8.

Muchos otros problemas se dan en esta tercera sección, por ejemplo:

Una araña sube, por una pared, durante el día, un determinado número de cms. y baja, durante (a noche, otro determinado número de cms. ¿Cuántos días le lleva subir la pared?.

Un perro de caza, cuya velocidad se incremento aritméticamente, persigue a una liebre, cuya velocidad también se incremento aritméticamente. ¿Cuánto recorren hasta que el perro alcanza a (a liebre?.

También hay problemas referidos a los números perfectos, y problemas que involucran a series aritméticas y geométricas.

Vivió antes de la aparición de la imprenta, por lo que sus libros fueron escritos a mano, y la única forma de tener una copia era haciendo otra copia a mano.

Otra de sus publicaciones fue Practica Geometriae (Prácticas de Geometría) en 1220, que consta de 8 capítulos, dedicada a resolver problemas geométricos y trigonométricos, especialmente medida de áreas de polígonos y volúmenes de cuerpos.

En 1225 publica Flos, donde da una exacta aproximación de la solución de 10x + 2x2 + = 20. Este problema lo toma del libro de Álgebra de Omar Khayyam, quién lo resuelve como intersección entre un círculo y una hipérbola. Fibonacci prueba que la solución no es ni un número entero, ni una fracción ni la raíz cuadrada de una fracción. Por eso dice que lo resuelve con una aproximación, pero no indica el método que usó. La solución la da en base 60, que convertida al sistema decimal es 1,3688081075. Esta solución tiene 9 decimales exactos.

En el mismo año escribe Líber Quadratorum, que es un libro sobre Teoría de números. Plantea que los cuadrados se pueden expresar como suma de números impares usando la fórmula:n2 + (2n+1 )= =(n+1)2 .

 También se ocupa de los tripletas pitagóricas que obtiene de la siguiente forma:

Cuando quiero obtener dos cuadrados cuya suma de otro cuadrado tomo cualquier número cuadrado impar como uno de los dos números cuadrados y busco el otro cuadrado sumando todos los números impares entre el 1 y el número cuadrado impar elegido, excluido éste.

Por ejemplo, elijo el 9 como uno de tos cuadrados mencionados, el otro cuadrado lo obtengo sumando los números impares desde 1 hasta 9 excluido, es decir, 1+3+5+7=16. Así 9+16=25.

Su libro sobre aritmética comercial Di minor guisa se perdió, lo mismo que su comentario sobre el libro X de Los Elementos de Euclides, que contenía un tratamiento de los números irracionales, que Euclides había abordado desde el punto de vista geométrico.

Después de explicar los procesos algorítmicos o aritméticos usuales, incluida la extracción de raíces, pone todo el énfasis en problemas de transacciones comerciales, utilizando un complicado sistema fraccionario.

La República de Pisa le asigna un salario anual en 1240 debido a sus contribuciones a la enseñanza de sus ciudadanos y los aportes a la contabilidad.

El boson de Higgs

El Boson de Higgs

Por otro lado, la idea de transmutar una sustancia en otra no era disparatada, y siglos más tarde los científicos modernos pudieron llevarla a cabo en sus laboratorios.

Modelo Atómico de Bohr Biografía Niels Bohr Configuración del Atomo

Modelo Atómico de Bohr – Biografía
Bohr Niels

Cuando un cuerpo sólido se calienta suficientemente, se pone incandescente, es decir, emite luz. Lo mismo sucedería si calentásemos gases o vapores, o si excitásemos sus moléculas con una descarga eléctrica.

Entre la luz emitida en uno u otro caso, existe, sin embargo, una importante diferencia. Si hacemos que la luz emitida atraviese un prisma, o una red de difracción, se obtiene su espectro, o conjunto de rayas o bandas de los distintos colores que componen la luz incidente.

El espectro de la luz que emiten los sólidos incandescentes es continuo y presenta bandas de diferentes colores que se funden unos con otros. Los gases y vapores dan lugar a un espectro que presenta líneas o bandas discretas.

Un elemento dado presenta siempre un mismo espectro, lo que constituye un valioso método para su identificación. Por ejemplo, al excitar el hidrógeno contenido en un tubo de descarga, se obtiene su bien conocido espectro de líneas. Con el fin de explicar este espectro del hidrógeno. Niels Bohr propuso su modelo atómico, que se utiliza todavía, aunque con algunas modificaciones, para describir los fenómenos atómicos básicos.

Niels Henrik David Bohr nació en 1885. Su padre era profesor de fisiología en la Universidad de Copenhague. En 1903, ingresó Bohr en dicha Universidad, y, ocho años después, salía de ella con el título de doctor y un enorme interés por los problemas teóricos relativos al átomo. Bohr es un sabio de nuestro tiempo.

Murió el 18 de noviembre de 1962. Desde muy joven hasta los últimos días de su existencia, Niels Bohr mostró un enorme interés y una incansable actividad en la solución de los problemas más importantes de la física moderna.

En 1911, Bohr llegó a Inglaterra para trabajar en el laboratorio Cavendish de Cambridge, bajo la dirección de J. J. Thomson. Por entonces, los físicos que trabajaban en aquel laboratorio concebían el átomo, de acuerdo con otros muchos físicos del mundo, como una esfera cargada positivamente, que contenía los electrones (cargas eléctricas negativas), los cuales se movían dentro de la esfera, y en número tai que el átomo quedaba eléctricamente neutro.

Al cabo de pocos meses, Bohr se trasladó a Manchester, en donde Rutherford, uno de los mejores físicos del momento, era profesor de física. Rutherford había demostrado, experimentalmente, que el átomo tenía un núcleo pesado de pequeño volumen y cargado positivamente, el cual estaba rodeado por los electrones. Pero las características de los espectros atómicos no podían ser explicadas sobre la base del átomo de Rutherford.

Nació el 7 de octubre de 1885 en Copenhague, Dinamarca. Cuando Bohr regresó a Copenhague después de haber trabajado con J. J. Thomsom, el descubridor del electrón, en el Laboratorio Cavendish de la Universidad de Cambridge, Inglaterra, como discípulo y colaborador de Rutherford, ya estaba convencido de que las teorías clásicas de la física no eran capaces de representar adecuadamente los movimientos orbitales de los electrones. Bohr combinó el núcleo de Rutherford y la teoría de los quanta de Plank y produjo la primera imagen matemática satisfactoria de la estructura del átomo, su teoría cuántica de las partículas fundamentales y de sus interacciones.

De acuerdo con su modelo, los electrones giraban alrededor del núcleo, cargado positivamente, y la atracción electrostática compensaba la fuerza centrífuga. La teoría electromagnética clásica exigía, sin embargo, que toda carga eléctrica acelerada debería emitir radiación continua.

Si esta radiación continua tuviese lugar, los electrones, entonces, describirían una espiral descendente y caerían al núcleo. El átomo de Rutherford era, por tanto, inestable, de acuerdo con los principios de la mecánica clásica.

Por otro lado, la emisión espontánea que predecían las leyes de la teoría electromagnética no tenía, de hecho, lugar. Bohr se dedicó a plantear y estudiar los problemas teóricos que el átomo de Rutherford llevaba consigo, con el objeto de proponer un modelo atómico que se ajustase a los hechos experimentales conocidos entonces, y, particularmente, a la evidencia que con el empleo del espectroscopio se había acumulado empíricamente, analizando los espectros de elementos conocidos. La teoría de Bohr puede resumirse en los dos puntos siguientes:

1) Los electrones sólo pueden ocupar ciertas capas en órbitas, dentro del átomo. A los electrones de una determinada órbita les corresponde una energía bien definida.

2) Cuando un electrón salta desde una a otra de las órbitas permitidas de un átomo, éste emite luz. Puesto que cada órbita representa un determinado estado energético, a la transición producida le corresponde un incremento de energía bien definido. Este cambio en la energía del electrón conduce a la emisión de luz de una determinada frecuencia, la cual es proporcional a la diferencia entre las energías de los niveles inicial y final.

Cuando se aplicaron estas ideas al átomo de hidrógeno, que es el átomo más simple, ya que está constituido por un solo electrón girando alrededor del  núcleo, se encontró que proporcionaban, exactamente, el mismo espectro que se había medido de un modo experimental.

Nueve años después, en 1922, Bohr recibía el Premio Nobel de física, por su interpretación del espectro del hidrógeno, basada en su modelo atómico. La importancia de este revolucionario modelo atómico no necesita ser comentada, y su inmediata aplicación para explicar el espectro del hidrógeno ha sido calificada como uno de los mayores triunfos de la física.

En su laboratorio de Copenhague trabajaban la refugiada judía Lise Meitner y su sobrino Otto Frisch. Cuando los alemanes Hahn y Strassman publicaron los resultados de sus investigaciones sobre el bombardeo de átomos de uranio con neutrones, descubriendo con asombro que aparecían pequeños indicios de bario y criptón, sin determinar su origen, Bhor se entusiasmó con la idea propuesta por Meitner y Frisch de que tal vez el uranio absorbía un neutrón que se dividiera en dos fragmentos más o menos iguales.

Bohr viajó a Estados Unidos donde se reunió con Einstein y Fermi. Allí recibió una comunicación de sus colaboradores Meitner y Frisch quienes le avisaban que al repetir el experimento comprobaron que el núcleo de uranio se había dividido. Lo que fue discutido entre los tres sabios, sacando las consecuencias en cuanto a la enorme obtención de energía según este proceso

Desde 1913, y con sólo unas modificaciones efectuadas en la tercera década de este siglo, el modelo atómico de Bohr ha sido fundamental en la descripción de los procesos atómicos.

Durante estos años, fueron explicándose, progresivamente, muchos fenómenos no totalmente comprendidos o interpretados: la estructura de los espectros de otros elementos, los procesos de absorción y emisión luminosa, la formación del sistema periódico de los elementos, las propiedades periódicas de las 92 especies atómicas entonces conocidas, etc.

En 1920, fue fundado el Instituto de Física Teórica de Copenhague, del que Niels Bohr fue nombrado director, centro que desde entonces ha permanecido a la vanguardia de la física teórica nuclear.

Los mejores físicos del mundo hacían frecuentes visitas a este instituto, para discutir con Bohr las modificaciones de su teoría. Niels Bohr, el modesto físico danés que nació antes de que la radiactividad fuese descubierta y que llegó a ser una máxima autoridad en el estudio de las leyes fundamentales del átomo, murió en noviembre de 1962.

esquema modelo atomico bohr

En el modelo atómico propuesto por J. J. Thomson en 1904, se suponía que los electrones estaban contenidos en una esfera cargada positivamente, y que la masa del átomo era fundamentalmente debida a los electrones.

En el modelo del átomo de hidrógeno propuesto por Bohr, el electrón puede moverse a lo largo de ciertas órbitas situadas alrededor del núcleo: cuando un electrón salta de una órbita a otra más cercana al núcleo, el átomo emite luz de un cierto color, que depende de las órbitas que entran en juego.

Así, si un átomo de hidrógeno no está excitado, se encuentra en su estado normal y los electrones están situados en la órbita más cercana al núcleo, con lo que no puede producirse emisión de luz alguna.

ALGO MAS SOBRE LA BIOGRAFÍA DE NEILS BOHR

Fue Niels Bohr, quien llevó a los Estados Unidos la noticia de que en 1939, Lise Meitner y O. R. Frisch habían dividido el átomo de uranio. No mucho después de que Bohr regresó a Copenhague, de aquel importante viaje, los nazis ocuparon Dinamarca.

Bohr ordenó inmediatamente que todo el trabajo se detuviera en su instituto de física teórica. Después, en 1943, cuando se enteró de que iba a ser arrestado, escapó a Suecia con su esposa y su hijo Aage. Pronto se encontró de nuevo en los Estados Unidos.

A mediados del año de 1940, un cierto Mr. Nicholas Brown iba, a menudo, a Los Álamos, Nuevo México, donde se construía la primera bomba atómica. Para mucha gente era sólo un científico más del proyecto, pero para otros era probablemente, una figura familiar.

Los que le reconocían debían preguntarse, “¿Mr. Brown? —Se parece a . . .”, y se callaban, porque no debían circular las noticias de que el gran Niels Bohr estaba ayudando a los Estados Unidos a desarrollar La energía atómica.

Bohr estaba angustiado con la bomba. Incluso antes de que fuera usada por primera vez, intentaba persuadir a la gente de la necesidad de regular esta nueva forma de energía. En 1950, escribió a las Naciones Unidas sobre la importancia del control internacional de la energía atómica. En 1955, ayudó a organizar en Ginebra la Conferencia de Átomos para la Paz. En 1957, —treinta y cinco años después de haber recibido el Premio Nobel de Física— se le concedió el primer Premio de Átomos para la Paz.

Bohr fue, probablemente, el más grande de todos los físicos atómicos. En 1913, utilizó la teoría cuántica para explicar las líneas espectrales del hidrógeno. Sabía que su teoría atómica no era aplicable para otros elementos y continuó mejorándola. Desarrolló importantes teorías sobre la naturaleza del núcleo. Tal vez, tan importante como sus investigaciones, fue su trabajo de maestro.

Muchos grandes físicos nucleares estudiaron con él. En una serie de tributos a Bohr, en su cumpleaños, algunos de sus antiguos discípulos famosos, le presentaron parodias sobre informes de importantes investigaciones. Se pueden ver algunas de estas divertidas narraciones en el número de marzo de 1956 del Scienfifíc American.

Fuente Consultada:
Revista TECNIRAMA N°56
El Estallido Científico en el Siglo XX Trevor Williams
FÍSICA Fundamentos y Fronteras Stollberg-Hill