La Fisión Nuclear

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Usos del Transbordador Espacial Misiones y Programas de la NASA

El Trasbordador Espacial
El Trasbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmico. El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.”El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo”, dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

Radiacion Cuerpo Negro, Explicación Sencilla del Fenómeno Teoría

EXPLICACIÓN DE LA RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca la explicación de los procesos por los cuales la materia emitía o absorbía radiación. Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace. Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro. Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma. Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento. A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura. Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas. Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo. En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases cu-relación al aumento de temperatura y cambios de presión. A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido. Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas. Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales. Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante. Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas. Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton. Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente. ¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos. Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas. Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura. La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética. El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas. En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto. La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja. Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos. En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv. Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos. Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos? Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales? ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII. Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio. Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus. Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades. ¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell Ludwig Boltzmann Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física. El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera. Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano  Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica. Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Biografia Alexander Humboldt Naturalista y Explorador Aleman

Von Alexander HUMBOLDT: Barón de Explorador y naturalista prusiano (Berlín, 1769-1859). Nacido en una familia aristocrática de tradición militar, dedicó su vida al estudio y la investigación científica. Estudió Filosofía, Medicina y Botánica, además de interesarse por la minería y la economía y completar sus conocimientos viajando por toda Europa. Su labor de explorador la orientó fundamentalmente hacia Sudamérica, adonde viajó con patente de Carlos IV, entre 1799 y 1804.

Al iniciar sus estudios pensaba dedicarse a la política, pero optó luego por las expediciones científicas. Humboldt se dedicó a aumentar sus conocimientos en ciencias e idiomas, y en 1799 emprendió, en compañía de Bonpland, un viaje por las regiones tropicales del Nuevo Mundo, pródigo en beneficiosos resultados, que se prolongó hasta 1804. Nadie había estudiado hasta entonces la naturaleza de la meseta mexicana, ni la vegetación del Amazonas, ni la fisonomía de los llanos, ni las características de los volcanes.

De regreso a Europa, ambos exploradores publicaron el Viaje a las Regiones Equinocciales del Nuevo Continente, 30 volúmenes, que aparecieron entre 1805 y 1832, donde se encuentran reunidos múltiples y valiosos documentos relativos a economía política, agricultura, geografía, arqueología, descripción de pájaros, peces, insectos y otras maravillas de la naturaleza. Este material fue luego de gran utilidad para las famosas Sinopsis de S. Kunth, y fue también aquella obra la que hizo conocer la utilidad del guano como fertilizante y originó su introducción en los países de Europa.

En 1829 emprendió Humboldt un viaje al Asia central, por invitación del gobierno de Rusia, acompañado por Ehrenberg, Rose y Menschenin, que se redujo a una visita a los Urales. Las observaciones realizadas fueron consignadas en dos volúmenes: uno de Rose, Mineralogía y Geognosia (1837-1847) y otro de Humboldt, El Asia Central (1843).

Después de esta publicación se dedicó a la redacción de su Cosmos, obra en la que ha desarrollado todas las ramas de la ciencia conocidas hasta entonces, y creado algunas más.

Visitó las islas Canarias y Cuba, se adentró en la selva del Orinoco, recorrió los Andes desde Cartagena de Indias hasta Lima, se detuvo para subir al monte Chimborazo (la mayor altura conquistada por el hombre hasta la época) y completó el periplo atravesando el Virreinato de Nueva España entre Acapulco y Veracruz.

A lo largo de la expedición realizó observaciones sobre la fauna, flora, geología, geografía y astronomía, pero también sobre la sociedad, economía, historia, razas y costumbres de América; de regreso a Europa trajo importantes colecciones de dibujos, plantas, minerales y animales disecados, que se conservan en museos de Berlín y París. Luego dedicó gran arte de su vida a plasmar por escrito sus observaciones: primero en los cinco volúmenes del Viaje a las regiones equinocciales del nuevo Continente (1807-27); y luego en los cuatro de Cosmos.

Ensayo de una descripción física del mundo (1844-57). Entre ambas obras realizó otra expedición científica al Asia central, bajo la protección del zar Nicolás I. En las costas peruanas del Pacífico descubrió una corriente marina fría que, desde entonces, se denomina corriente de Humboldt. Su hermano mayor, Karl Wilhelm von Humboldt (1767-1835), fue un destacado filólogo, pensador, diplomático y político liberal, que participó en las reformas de Stein*, modernizó el sistema educativo prusiano y fundó la Universidad de Berlín.

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

El fin del eter de Aristoteles Quintaesencia llena el espacio Quinto

Durante el siglo XIX la idea de que la luz era un fenómeno ondulatorio estaba bastante afirmada. Las ondas que pueden observarse habitualmente a nivel macroscópico siempre son perturbaciones de algún medio material: las ondas de sonido son oscilaciones de las moléculas de aire, las ondas en un estanque son oscilaciones de las moléculas de agua, las ondas en una soga son oscilaciones de las moléculas que componen la soga, etc.

Por ese motivo resultó natural suponer que existía un medio material necesario para la propagación de las ondas luminosas. A este medio se lo llamó éter. Esta palabra ha tenido muchos usos a través del tiempo en explicaciones sobre la naturaleza, cuando se necesitaba postular la existencia de algún fluido que hiciera posible algún proceso (se ha hablado alguna vez de cierto éter que conduciría las sensaciones de una parte a otra del cuerpo humano).

El éter lumínico, de existir, debía tener propiedades muy particulares: ser lo suficientemente tenue como para llenar todos los espacios, incluso el interior de los cuernos transparentes o traslúcidos, y ser lo suficientemente rígido como para poder transmitir ondas de altísima frecuencia como las que conforman la luz. Los años pasaban y nadie podía diseñar una experiencia en la que se manifestara claramente la presencia del éter.

Si el éter llenaba también el espacio interestelar a lo largo de todo el Universo, esto hacía surgir una pregunta: ¿El mar de éter estaba fijo en el espacio y a través de éste se movían los astros sin perturbarlo, o cada planeta arrastraba el éter como si friera una atmósfera? La sistema de referencia absoluto respecto del cual se moverían todos los otros cuerpos. Y como la luz se propagaría a velocidad c en el éter estacionario, desde un cuerpo en movimiento, como la Tierra, se vería que la luz se mueve a distintas velocidades según lo haga en la misma dirección del movimiento terrestre, en sentido contrario o perpendicularmente.

Cuando el haz de luz viaja en la misma dirección y sentido que la Tierra, su velocidad relativa a ésta es c — y. Cuando viaja en una sentido contrario, su velocidad vista desde la Tierra es c + y.

En 1887, el físico Albert A. Michelson (1852-1931) diseíió un interferómetro y, junto con el químico Edward W Morley (1838-1923), realizó un experimento que debía mostrar la diferencia en las velocidades, vistas desde la Tierra, de dos rayos que se mueven en direcciones diferentes. Se usaban dos rayos provenientes de la misma fuente (para asegurar la coherencia), y luego de desplazarse en direcciones perpendiculares, se los hacia interferir.

La clave del experimento residía en que el patrón de interferencia debía cambiar si se rotaba el aparato con respecto a la dirección del movimiento de la Tierra.

El aparato original tenía muchos espejos para aumentar el camino recorrido por los rayos hasta unos 10 m, y así aumentar el efecto de interferencia. El dispositivo descansaba sobre una gran piedra que flotaba en mercurio.

El experimentador iba observando el patrón de franjas mientras hacía rotar lentamente la piedra. Hicieron miles de mediciones en diferentes puntos de la órbita terrestre y nunca notaron ni siquiera el mínimo corrimiento en el patrón de franjas. La orientación de los rayos de luz con respecto al movimiento de la Tierra no parecía afectar el movimiento de aquéllos. Algunos años más tarde, Michelson también investigó interferométricamente la posibilidad de que la Tierra arrastrara con ella al éter y demostró que esto tampoco era posible. La teoría del éter fue abandonada.

Las radiaciones de un nucleo atomico Tipos alfa, beta y gamma

LAS RADIACIONES DE UN NÚCLEO DE UN ÁTOMO

Átomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra “átomo” se empleaba para referirse a la parte de materia más pequeño que podía concebirse. Esa “partícula fundamental”, por emplear el término moderno para ese concepto, se consideraba indestructible.

De hecho, átomo significa en griego “no divisible”. El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.

Con la llegada de la ciencia experimental en los siglos XVI y XVII  los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos.

Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

Todos sabemos que el átomo constituye una especie de sistema planetario en miniatura; el núcleo equivale al Sol, y los electrones a los planetas. Una de las primeras preguntas que se nos pueden ocurrir a este respecto, es la siguiente: ¿cómo está hecho el núcleo, ese sol de un universo infinitamente pequeño?

Sabemos que el núcleo atómico se compone, fundamentalmente, de dos tipos de partículas materiales: los protones, cargados de electricidad positiva, y los neutrones, desprovistos de carga eléctrica. En cambio, poco es lo que se sabe acerca de la disposición y movimiento de estas partículas. A diferencia de lo que sucede con los electrones (los “planetas”), que giran alrededor del núcleo, no existe un modelo que ilustre de manera intuitiva cómo los protones y neutrones se mueven y disponen en el interior del mismo núcleo.

Sin embargo, los estudios y las experiencias de física nuclear han permitido obtener algunas conclusiones y datos significativos. Por ejemplo, el núcleo del átomo del hierro, contiene 26 protones (en amarillo en la ilustración) o, lo que es lo mismo, 26 partículas provistas de una carga elemental positiva.

Estas 26 cargas positivas pueden sostener, en torno al núcleo, otras tantas cargas de signo opuesto. Así, en el átomo neutro de hierro, 26 electrones —es decir 26 partículas provistas de una carga elemental negativa— giran alrededor del núcleo, en órbitas distintas. Y, precisamente, es el número de protones (llamado “número atómico”), igual en el átomo neutro al número de electrones, lo que hace que el hierro sea hierro, con todas las propiedades químicas que lo distinguen. Cada elemento químico, en consecuencia, tiene un número atómico propio.

Pero si las propiedades químicas de un átomo dependen, exclusivamente, del número atómico, otras propiedades no menos importantes dependen, además, del llamado “número de masa”. Se trata de propiedades que no pueden observarse a simple vista, pero que se revelan de modo muy espectacular en las “reacciones nucleares” (pensemos, por ejemplo, en la bomba atómica).

Ya hemos dicho que en el núcleo, además de los protones, se encuentran los neutrones, o partículas desprovistas de carga eléctrica, que pesan, aproximadamente, igual que los protones. Pues bien: la suma del número de protones y de neutrones da el “número de masa”. Los átomos de igual número atómico, pero de distinto “número de masa”, son llamados “isótopos”: tienen idénticas propiedades químicas (puesto que idéntico es el número atómico), pero distintas propiedades nucleares, porque distinto es el número de masa o, lo que es lo mismo, el número de neutrones.

Tal como aparecen en la naturaleza, casi todos los elementos son mezclas de isótopos diferentes: el hierro, por ejemplo, además de átomos de 26 protones y 30 neutrones (que se hallan en franca mayoría, ya que constituyen el 91,68% de su materia), contiene también átomos de 28, 31 y 32 neutrones. Éstos son, precisamente, los isótopos del hierro (cuyos protones continúan siendo 26), todos ellos estables, es decir, existentes en la naturaleza, sin ninguna tendencia a transformarse espontáneamente en otra cosa.

En cambio, un átomo de hierro que, junto a los 26 protones habituales tuviese en el núcleo 33 neutrones, ya no sería estable, es decir, tendería a transformarse. Lo mismo puede decirse de los átomos de hierro con 27 ó 26 neutrones.

Se trata de un hecho muy importante, cuya significación es la siguiente: para que en un núcleo con un determinado número de protones (26 en el caso del hierro) haya estabilidad, los electrones no deben superar una cantidad determinada (28, 30, 31 y 32, en el caso del hierro).

En otras palabras: del número de neutrones depende la estabilidad del núcleo. Y ahora podemos dar otro paso y preguntarnos qué es lo que mantiene a protones y neutrones en el núcleo. Salta a la vista que el problema es más complejo que el que presentan los electrones girando alrededor del núcleo: en este caso se trata, simplemente, de partículas cargadas negativamente (electrones), que, en virtud de las fuerzas electrostáticas, son atraídas por cargas positivas de ciertos elementos del núcleo (protones). En el interior del núcleo, en cambio, los neutrones, desprovistos de carga, y los protones, que la tienen positiva, deberían repelerse, si sólo actuaran las fuerzas electrostáticas.

Como no sucede así, forzosamente tenemos que pensar en fuerzas de otra naturaleza; y éstas, llamadas por los científicos “fuerzas nucleares”, son aún muy misteriosas. Parece que los protones y neutrones se atraen independientemente de su carga; es decir, un protón atrae indiferentemente a otro protón, o a un neutrón, y lo mismo puede decirse de los neutrones. En el caso, sin embargo, de dos protones, la fuerza electrostática de repulsión es más potente que la fuerza nuclear de atracción.

Debido al complejo juego de estas fuerzas, la estabilidad del núcleo depende de las relaciones entre el número de protones y de neutrones, tal como hemos explicado.

Cuando la relación protones-neutrones no asegura la estabilidad del núcleo, éste tiende a modificar la relación, emitiendo radiaciones alfa o beta, y transformándose espontáneamente en un núcleo estable.

En las radiaciones alfa, el núcleo emite las “partículas alfa”, constituidas por dos protones y dos neutrones.
En las radiaciones beta, el núcleo sólo emite electrones, que no existían previamente en su interior, sino que se producen simultáneamente con la emisión, cuando un neutrón del núcleo se transforma en protón para establecer el necesario equilibrio numérico entre neutrones y protones.

PARTÍCULA ALFA:

Determinadas combinaciones de protones y neutrones pueden llegar a formar un núcleo durante algún tiempo; pero el núcleo no es estable y el átomo es radiactivo. Esta clase de átomos intenta variar la proporción de protones y neutrones en el núcleo, para formar una combinación más estable, y entonces el núcleo emite una radiación. El átomo se trasforma en el átomo de un elemento distinto y se dice que se trasmutó.

Dos protones no pueden permanecer juntos, porque ambos tienen carga positiva (cargas del mismo signo se repelen). Los núcleos que tienen protones en exceso se estabilizan por trasmutación.


El núcleo de helio, con dos protones y dos neutrones, es la combinación de protones y
neutrones más estable que se conoce. Es la “partícula alfa”.

Por ejemplo, si un núcleo contiene demasiados protones y neutrones para ser estable, puede expulsar algunas de estas partículas y alcanzar una mayor estabilidad. Para ello emite dos protones y dos neutrones firmemente unidos (el núcleo, muy estable, del átomo de helio), formando una partícula única, que se conoce con el nombre de partícula alfa. La partícula alfa lleva, por consiguiente, dos cargas positivas y tiene un peso atómico igual a cuatro, mientras que el átomo que ha emitido esta partícula alfa disminuye su número atómico en dos unidades, y su peso atómico en cuatro unidades.

Por ejemplo, los átomos de radio que se encuentran en la naturaleza (número atómico 88, peso atómico 226) emiten partículas alfa, y entonces se- trasforman en radón, un gas radiactivo (número atómico 86, peso atómico 222)

El radón mismo se trasmuta emitiendo partículas alfa. Las partículas alfa, que se emiten durante la trasmutación de los átomos, se desplazan en línea recta a través del aire, y pierden su energía a medida que van entrando en colisión con las moléculas de aire, deteniéndose, generalmente, al cabo de unos cuantos centímetros.

Todas las partículas alfa, emitidas por un isótopo determinado, suelen recorrer la misma distancia en el aire, ya que tienen la misma energía cinética, la cual van perdiendo en los choques; basta, sin embargo, interponer en su camino una hoja de papel para detener una partícula alfa.

LA PARTÍCULA BETA
Si un núcleo contiene demasiados neutrones, para ser estable puede convertir alguno de ellos en un protón. En realidad, el protón y el neutrón son partículas muy similares. Para que un neutrón se trasforme en protón basta con que emita un electrón. El neutrón pierde, entonces, una carga negativa y se trasforma en un protón cargado positivamente:

El electrón es emitido por el núcleo con una gran velocidad; recibe el nombre de partícula beta.

El átomo conserva el mismo peso molecular después de la trasmutación, ya que la suma de protones y neutrones en el núcleo permanece constante; pero el número atómico aumenta por existir un protón suplementario. Un ejemplo de trasmutación por emisión de partículas beta lo tenemos en el comportamiento del carbono radiactivo. Los átomos del carbono 14 (número atómico 6, peso atómico 14), que es un radioisótopo natural del carbono 12, se trasmutan, por emisión de partículas beta, en nitrógeno 14 (número atómico 7, peso atómico 14). que tiene un núcleo estable.

Aproximadamente, la mitad de los radioisótopos naturales se puede trasmutar por emisión de partículas beta. También muchos radioisótopos artificiales presentan una trasmutación de este tipo.

Las partículas beta son muy ligeras y se desvían muy fácilmente en su trayectoria. Por ello, no se desplazan en línea recta como las partículas alfa. Sin embargo, suelen recorrer un espacio superior. En el aire, una partícula beta puede alcanzar más de un metro o, incluso, atravesar una lámina de aluminio de algunos milímetros de espesor.

EL POSITRÓN
Además de las partículas alfa y beta, que emiten los radioisótopos naturales, los radioisótopos artificiales pueden emitir también una partícula, que tiene la misma masa que el electrón, pero con una carga positiva igual a la del protón. Esta partícula se llama positrón, y puede considerarse como un electrón con una carga positiva igual, pero de signo opuesto a la del electrón.

EMISIÓN DE POSITRONES
Se ha visto que la emisión de partículas beta puede tener lugar cuando el núcleo contiene demasiados neutrones para ser estable. Si la relación entre protones y neutrones es la correspondiente al núcleo estable, no hay radiactividad. Si, por el contrario, el núcleo contiene demasiados protones para ser estable, puede convertir uno de sus protones en un neutrón, emitiendo un positrón que, al no poder permanecer en el núcleo, es expulsado

El átomo conserva el mismo peso atómico, pero el número atómico disminuye por haberse convertido un protón en neutrón. En 1934, Irene Joliot-Curie formó átomos de nitrógeno 13 (número atómico 7, peso atómico 13) al bombardear boro 10 con partículas alfa. El nitrógeno 13 se trasmutaba, por emisión de positrones, en carbono 13 (número atómico 6, peso atómico 13), y la presencia de la radiación, debida a los positrones (éstos fueron descubiertos en 1932), le permitió anunciar el descubrimiento de la radiactividad artificial:

Hay, además, un tercer tipo de radiación nuclear, que siempre se presenta en compañía de una de las dos recién explicadas. Se trata de la radiación gamma, que es de naturaleza electromagnética, como la luz y los rayos X, de los que sólo difiere por el origen (la luz y los rayos X se originan en el exterior del núcleo, como consecuencia del paso de electrones de una órbita a otra de menor energía; las radiaciones gamma, en cambio, se originan en el interior del núcleo, como consecuencia de una sucesiva estabilización de éste, sin que se modifique la relación protones-neutrones).

Las radiaciones nucleares alfa, beta y gamma constituyen, pues, el instrumento que un núcleo inestable tiene a su disposición para alcanzar la estabilidad. En algunos elementos, tal como se encuentran en la naturaleza, la emisión de las radiaciones nucleares se verifica espontáneamente. Se trata de los famosos elementos radiactivos, como el radio y el uranio.

Pero fenómenos de este género pueden provocarse también en el laboratorio. Y, durante el transcurso de estas investigaciones, el hombre ha conseguido asomarse a los más profundos misterios del átomo, construir núcleos inexistentes en la naturaleza, liberar las energías encerradas dentro de los núcleos, e incluso, como veremos en otro artículo, transformar unos elementos en otros.

En 1934, Irene Joilot-Curie (hija de la famosa María Curie) y su marido, descubrieron que un isótopo estable natural (el boro 10) puede trasformarse en un elemento radiactivo distinto, por bombardeo con “partículas alfa”. La radiactividad de los átomos producidos artificialmente se llama “radiactividad artificial”.

 

El desarrollo cientifico y grandes inventos en el siglo XX Carrera Espacial

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta “transmutación” posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de “paquetes” básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)