Hombres Mas Influyentes

Conceptos Básicos de Electrostática Cargas Eléctricas

EXPERIMENTO CON CARGA ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar. Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos. Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto. Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro. La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente. Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador. el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco. Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico. Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA
TEORÍA GENERAL DE LA RELATIVIDAD FORMULADA POR ALBERT EINSTEIN

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando “revoleamos” una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o “empujados” contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue “la idea más feliz de mi vida“, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: “La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad”.

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Usos del Transbordador Espacial Misiones y Programas de la NASA

El Trasbordador Espacial
El Trasbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmico. El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.”El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo”, dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

Hombres Mas Poderosos del Mundo Biografia de Luciano Benetton Moda en Italia

Historia de la Familia Benetton Millonarios de Italia Moda Italiana

Familia Benetton: El color de la fortuna

La Familia Benetton y sus mil y un negocios
“Hasta 1967, nuestra empresa se había desarrollado notablemente. Pero el desafío del crecimiento demandaba ahora un gran salto.

La nueva etapa requería, para su estructuración, mucho trabajo, talento y dinero. Muchos pequeños socios, que arriesgaran su capital junto con nosotros, lo que implicaba adhesión y fidelidad al proyecto, aceptando trabajar con exclusividad nuestros productos. Así nacieron las franquicias Benetton, sin duda la clave de su expansión a nivel mundial. Sus franquiciados, no pagan ningún royalty, pero deben poseer locales exclusivos, con luz, espacio y color”, asegura en la actualidad Luciano Benetton, un hombre que comenzó su imperio textil gracias a la venta de una vieja bicicleta.

Como ya lo mencionamos en la primera parte de este informe dedicado a la historia de la Familia Benetton, se estima que hasta el año 1975 las ventas de la compañía familiar sólo se limitaron al mercado italiano.

En realidad esta limitación tenía que ver exclusivamente con una decisión de los fundadores de la empresa. Al respecto, Luciano Benetton comentó en una oportunidad: “Las mejores ideas pueden malgastarse por una errónea implementación. Era inútil despertar el apetito de la gente por nuestros productos, si no estábamos en condiciones de satisfacerlos, poniéndolos a su alcance en precio, cantidad y calidad”.

Por ello, a partir de aquel momento la empresa necesitó una serie de reglas que le permitirían llegar a lejanos países y a otros continentes. La filosofía de la compañía constaba de las siguientes premisas:
1- Crear una imagen internacional homogénea y duradera.
2- Mostrar una infinita variedad de colores, que es el éxito del producto.
3- Demostrar que aquello que es vendido con la imagen Benetton está al alcance de todos, especialmente de los jóvenes.

Por supuesto que la publicidad jugó un rol fundamental en el éxito obtenido durante ciclo de expansión de la marca a nivel mundial.

De esta forma, no sólo llegaron las nuevas marcas fabricadas por la empresa, tales como Sisley, Playlife, Killer Loop, y otras, sino también la colonización de los Estados Unidos por parte de un grupo de italianos que llevaron una gama de colores infinitos a la ropa de los americanos. En sólo tres años se lograron inaugurar en Estados Unidos más de 500 comercios.

Pero Benetton no se detuvo allí, sino que además desembarcó en cada país del mundo, como en caso de la URSS, nación en la que los Benetton lograron introducir su marca durante la época de la “Perestroika”, siendo la segunda empresa multinacional en ingresar a Moscú. La primera había sido Mc Donald’s.
Después de lograr un verdadero boom de la internacionalización de sus productos, hoy Benetton exporta alrededor del 90% de su producción, artículos que llegan a los cinco continentes a través de más de 50 empresas asociadas.

Actualmente, la empresa posee su sede central en la ciudad de Villa Minelli, en Ponzano, Italia, tiene un ingreso anual que supera los 2 billones de euros, y emplea de forma directa a más de 9.500 empleados en todo el mundo.
Uno de los datos seguramente más destacables de los negocios de la compañía Benetton reside en la publicidad, a través de la cual han logrado llegar a cada rincón del planeta, plasmando en ella su filosofía y sobre todo su innovación.

Tengamos en cuenta que anualmente la empresa invierte cifras importantes en su publicidad, ya que el 5% de su facturación es destinada a promocionar las marcas de la firma.

Uniendo colores…
Cuando mencionamos la marca Benetton, seguramente aparecerá en nuestra mente alguna de las famosas fotografías que sirvieron para la campaña de la firma, las cuales fueron creadas por el propio Luciano Benetton en colaboración con el fotógrafo Oliviero Toscani, y que eran acompañadas por el lema “United Colors of Benetton”.
Fue principalmente en la década de los años noventa que Benetton comenzó a estar en boca de todos, a lo largo y ancho de todo el planeta, debido a su desenfadada y controvertida publicidad, la cual incluía imágenes que no guardan relación aparente con la marca.

El fotógrafo Oliviero Toscani, que fue el creador de dicha campaña, seleccionó una serie de fotografías que resultaron chocantes para ciertos sectores, generando una polémica que incluso se extiende hasta nuestros días.
De esta manera, los anuncios de Benetton eran representados por imágenes tales como un enfermo terminal muriendo de SIDA, un sentenciado a muerte, multitudes en pánico saltando de un barco, un bebé recién nacido sin haber sido lavado, e incluso la propia fotografía de Luciano Benetton completamente desnudo.

Por otra parte, otras imágenes, quizás las más difundidas, retrataban a grupos de personas pertenecientes a distintas etnias, enfatizando los contrastes del color de la piel y a la vez demostrando que todos somos iguales.

En todos los casos, las fotografías eran acompañadas por el logotipo de Benetton y la frase “United Collors of Benetton”.

La controversia y polémica surgida en torno a la campaña publicitaria de Benetton generó un mayor interés en la marca por todo el mundo, demostrando nuevamente que Luciano Benetton siempre ha sido un genio del marketing.
Mientras tanto, por otro lado, en el año 1994 la familia Benetton decidió crear el centro del holding dedicado a la investigación de la comunicación, denominado Factory, el cual se encuentra emplazado en Treviso.

Factory es fundamentalmente un centro en el que se conjuga la cultura y la industria a través de la comunicación, para dar lugar a formas publicitarias innovadoras, utilizando nuevos medios como el diseño, la música, el cine, la fotografía, el deporte y las publicaciones editoriales y en Internet.
A través de Factory también se lleva a cabo la publicación de la revista Colors Magazine, la cual es financiada por el holding Benetton y se distribuye en todo el mundo en ediciones bilingües.

Por último, cabe destacar que la crisis mundial no parece ser para el Grupo Benetton un inconveniente, sino todo lo contrario. En este sentido, Luciado Benetton afirmó: “La aventura es para mí una especie de obligación. Nuestro secreto es la organización. En nuestro sector, somos los mejores preparados. Por eso, las crisis representan para nosotros una buena oportunidad para hacer negocios; porque la competencia es menor”.

Nota de Graciela Marker Para Planeta Sedna
Fuente Consultada: Los Amos del Mundo de Sabrina Cohen y Paolo Ligammari

Sectas Religiosas y Peligrosas Suicidios Colectivos o Asesinatos Masivos?

Sectas Religiosas y Peligrosas ¿Suicidios Colectivos o Asesinatos Masivos?

sectas religiosas
El “Reverendo” Jim Jones     –    El Líder Espiritual David Koresh

PORQUE EL ÉXITO DE LAS SECTAS?: A fines del siglo XX los servicios de información general franceses calculaban en 300 el número de “sectas peligrosas” y en 500 el número de “movimientos potencialmente peligrosos de tendencias sectarias”.

Se citaban, por orden de peligrosidad, estos cinco criterios: condicionamiento mental, ruptura de lazos familiares, presencia de un gurú autoritario, explotación financiera de los individuos y vida en autarquía.

Y es que la crisis económica y social que afecta a nuestras sociedades y que se traduce en la persistencia de un altísimo índice de desempleo y en el aumento de las desigualdades de todo tipo constituye un terreno fértil para el desarrollo de sectas, ya no sólo folclóricas, sino terriblemente nocivas.

En un mundo que está en perpetua renovación, donde nadie está seguro de conservar por mucho tiempo su empleo, ¿qué hay más tranquilizador, en efecto, que los grupos enfermizantemente seguros de detentar la verdad, que disponen de estructuras de condicionamiento comprobadas y de sistemas ideológicos cerrados? ¿Y qué hay más inquietante que su capacidad de transformar la angustia del día venidero en entrega ciega y en paranoia aguda, o de fabricar máquinas de hacer dinero?.

Alain Vivien, antiguo diputado y autor en 1983 de un informe parlamentario pionero sobre las sectas en Francia, habla, a ese respecto, de un “breviario sectario”. Si se cuadricula metódicamente un tejido social deshilachado, las sectas aparecen de hecho en todos los cuadros, uno por cada nivel de población, o casi: ejecutivos inquietos, jóvenes sin perspectivas de empleo, estudiantes carentes de oportunidades, “desposeídos” de los suburbios, etc. De esta manera, las sectas tienden a complementarse mutuamente en forma tácita, aun si su red todavía carece de coherencia.

El peligro es tanto más grande cuanto que la estructuración internacional de los grupos sectarios mejor organizados hace prácticamente imposible el control de sus actividades por parte de los Estados existentes. De ahí surge la inquietud de los responsables: en un contexto económico y social difícil, ¿lograremos atajar por fin el avance de las sectas?

¿QUE SON LAS SECTAS?

La definición tradicional de una secta se refiere a “toda asociación o tendencia común que tenga como objetivo suscitar una sociedad humana nueva y cuyos métodos o creencias se mantengan ocultos, escondidos a todos los extraños de la secta”.

Como primer análisis, por esta definición se excluyen a las religiones, puesto que no mantienen en secreto sus prácticas y creencias, sino que las proclaman y así también la historia y el estudio de los profetas, cuya acción ha sido individual. Sin embargo, muy a menudo esta acción u obra del solitario fueron el origen de una secta o de una sociedad: las de Orfeo, Pitágoras, Platón, Mahoma, Flore, Anderson, el Bab y muchos otros.

A la inversa, muchas veces el esoterismo de una o varias sociedades secretas se convirtió en el germen de una religión (el osirismo, el mitraísmo, la gnosis precristiana), o en el germen de un nuevo orden social (el Liceo, la Francmasonería).

A diferencia de las religiones universales o de las doctrinas racionalistas, que sufren largos períodos de oscuridad, las sectas y sociedades secretas sólo raras veces están ausentes de la vida de la humanidad.

Ver: Diferencia entre Secta y Religión

LAS SECTAS DE FIN DE SIGLO XX
Analizaremos cada una de las sectas más difundidas en la actualidad. Para ello vamos a seguir la clasificación ya mencionada de sectas destructivas, peligrosas y los grupos de riesgo.

Sectas Destructivas
Secta Moon
Oficialmente conocida como la Asociación Espiritual para la Unificación del Cristianismo Universal, fue fundada en 1954 por el coreano Sun Myung Moon, quien supestamente tuvo, a los 16 años, un encuentro con Dios, que le encomendó “completar la misión inconclusa de Jesús”.

Según la particular concepción del “reverendo”, el pecado llegó al mundo porque Eva copuló espiritualmente con Lucifer y luego materialmente con Adán. La doctrina de esta secta está contenida en el libro “El Principio Divino”, una especie de Biblia que Moon escribió durante la década del 50. En una doctrina insólitamente relacionada con la división política de nuestra actualidad, para la secta Jesús vino a restaurar el mundo pero fracasó al vincularse a los pobres y a las prostitutas. Por ello Dios envió un nuevo mesías -Moon- que enfrentará a Satán, encarnado en el comunismo.

Los adeptos a la secta son sometidos a un proceso de desestructuración de la personalidad, luego del cual consideran que sus padres biológicos son satánicos, por ello deben abandonarlos. Luego de esto obedecen a “los verdaderos padres”: Moon y su esposa. El nuevo país de los adeptos es Corea, la tierra del mesías.

Moon logró transformar a su secta en un poderoso imperio económico. Un sintético inventario de sus bienes arroja datos para el asombro: dueño de la principal productora de armas de Corea, elaboración y producción mundial de té gingseng, astilleros en Europa, Alaska, Japón y Brasil, agencias de viajes en todo el mundo, hotelería internacional. La secta es dueña de la quinta flota pesquera de los Estados Unidos, y posee asimismo periódicos en casi todos los países.

Cuando un joven ingresa a la secta, empieza a recibir el Proceso de Modificación del Pensamiento luego del cual deja su familia, amigos y actividades para dedicarse las 24 horas a la secta. Luego de tres o cuatro años el “mesías” le elegirá la pareja, generalmente de otro país. Sin amor entre ellos, sólo el de ambos hacia el reverendo Moon.

Iglesia de la Cienciología
En un folleto que hace poco tiempo comenzó a circular por algunos países de Sudamérica puede leerse: “Dianética es una ciencia exacta del pensamiento que funciona siempre, invariablemente, y no a veces, como las curaciones por la fe o las terapias tradicionales. Dianética es la única Ruta de Salud para la humanidad, es con justicia la terapia óptima y cualquier persona puede, mediante la asombrosa tecnología creada por Ronald Hubbard, borrar definitivamente de su vida el dolor físico y mental y recuperar la salud”.

Detrás de estas palabras se esconden las actividades de una de las sectas más destructivas de la actualidad, que fue prohibida en la mayoría de los países y sin embargo en Argentina y otros países latinoamericanos sigue funcionando libremente.

También conocida como Dianética o Narconon, la Iglesia de la Cienciología fue fundada por el mencionado Hubbard, un ex marine norteamericano, que en 1954 “encontró” la técnica para curar todas las enfermedades. Mezclando disciplinas orientales como el budismo con esoterismos cabalísticos, redacta sus escrituras: la “Filosofía Religiosa Aplicada”, donde enseña que el alma es inmortal y reencarnable, y promete a sus seguidores mejorar su capacidad de comunicarse y aliviar sufrimientos propios y ajenos.

Captan a sus adeptos ofreciendo challas y tests gratuitos, luego de los cuales un “especialista” analizará los resultados, y guiará al futuro miembro hacia un camino por el cual se “suprimen sus límites espirituales”. Además de métodos físicos más emparentados con la tortura psíquica que con la ciencia, usan un aparato llamado Electrómetro, similar a un detector de mentiras, que transmite energía eléctrica muy baja que según los dianéticos “ayuda a recuperar la salud”, cuando en realidad con ese aparato terminan convenciendo a la persona para que cuente sus más íntimos secretos.

Posteriormente suelen extorsionarlo para que entregue la mayor cantidad posible de dinero. La secta niega al psicoanálisis y a la psiquiatría, y su mayor peligro radica en el método de lavado cerebral, que es una verdadera tortura psicológica de consecuencias siempre irreversibles.

En los reglamentos internos de la secta puede leerse: “…las sanciones que utilizamos son tan poderosas que es preciso usarlas moderadamente…, nuestra disciplina, que compromete por toda la eternidad, es capaz de volver al hombre loco para siempre”. Toda persona declarada enemiga de la secta “puede ser privada de sus bienes o herida, puede ser estafada, atacada, se le puede mentir, puede ser destruida”.

Los niños de Dios
Nacen en California en 1969. Su fundador, David Berg, había sido un modesto predicador -casado, con cuatro hijos- de la Alianza Cristiana. Según cuenta en sus propios escritos, en 1968 conoció a María, una joven de 23 años (él tenía 49) con la cual comenzó a tener relaciones sexuales. En ese momento se le apareció Jesús y dijo: “David, ése es el camino”. A partir de allí comienza la actividad de una de las sectas más desenfrenadas de la historia.

Según las profecías que empieza a recibir Berg, Jane, su antigua mujer por más de veinte años, era la “Vieja Iglesia” y María, la “Nueva Iglesia”. Berg cambió su nombre por el de Moisés David o Padre Mo. A sus adeptos se les enseña a odiar a la familia, y la única fuente de ingresos proviene de la prostitución, que las mujeres de la secta llevan a cabo desde la niñez.

En los escritos de “Moisés” David se lee:
“Quiero niñas que amen a los viejos. Ellos son los que tienen el dinero. No tengáis miedo de llevar faldas cortas y escotes profundos. Enseñad lo que tenéis: es el cebo para los hombres ricos…”.

La Meditación Trascendental
Presentada en 1958 como una técnica que “no está vinculada a ninguna religión, dieta o estilo de vida, y sirve para eliminar tensiones, enfermedades, temores, obtener la alegría y la paz interior”, el hindú Prasad Wama -autobautizado gurú Maharishi- la Meditación Trascendental comenzó a difundirse en Occidente.

Según los seguidores del gurú, cada persona recibe un “mantra” secreto y personal, que meditado en dos sesiones de veinte minutos diarios, le cambiará totalmente la vida. Esto, ademas de ser falso, encierra el peligro de ser la puerta de entrada a prácticas que concluyen con un proceso de adoctrinamiento continuo que incluye numerosos retiros espirituales.

La Meditación Trascendental no usa, como otras sectas, la violencia. Sin embargo entraña un peligro social porque, partiendo de supuestamente inofensivos ejercicios de relajación, puede llegarse a un estado de total rechazo del mundo exterior.

Haré Krishna
El grupo se fundó en 1965 por el hindú Abhay Charan De, que se autobautizó: “Su Divina Gracia A. C. Bhaktivedanta Swami Prabhupada”. Discípulo de uno de los últimos grandes maestros intelectuales de este siglo, el Swami Sarasvati, comenzó a divulgar por todo el mundo una milenaria ciencia espiritual de la India, conocida como Bhakti Yoga.

Como ocurre con casi todos los grupos sectarios contemporáneos, los Haré Krishna comienzan a desarrollar sus actividades en los Estados Unidos. En 1977, la secta ya tenía 180 templos en todo el mundo. Ese mismo año muere su fundador, que deja a sus once discípulos directos a cargo del movimiento.

La doctrina sectaria se basa en un tipo de filosofía hindú, la advaita, a la que llegan a acatar sin el menor razonamiento, entregándole por completo sus vidas.

Con cuatro principios regulativos (no comer carne, pescado o huevos; no practicar sexo ilícito; no tomar intoxicantes y no practicar juegos de azar) manejan toda su vida. Los Haré Krishna se “alejan definitivamente de este mundo” dedicándose por completo al Señor, practicando Bhakti Yoga o servicio devocional.

La vida dentro de la secta merecería ser tratada en un libro aparte. Desdé combatir la tentación sexual en los más jóvenes con vestimentas que impiden la erección hasta llegar al grado máximo de debilitamiento psicofísico, casi sin dormir ni alimentarse, pasando por técnicas que producen un absoluto alejamiento de la realidad (como cantar un himno de 16 palabras 1728 veces al día), lo que ellos llaman “el mundo material”.

Ananda Marga
Conocida como la Secta de la Felicidad Perfecta, nació en la India en 1955. Su líder, Prabhat Sarkar, es conocido por sus seguidores como Baba (dios). Así se autoconsidera, y su doctrina, absolutamente mesiánica e individualista, lleva a sus seguidores a un total desarraigo del mundo real.

La disciplina toma tafees del tantrismo y dell yoga, y el adoctrinamiento de los seguidores se raliza mediante extenuantes sesiones de meditación.

Los seguidores deben cumplir un código de conducta fundamental, con dieciseis puntos, que conduce a un “completo desarrollo corporal, cerebral y espiritual”. Estos preceptos llevan a una dedicación total para la secta, con una entrega tal
que puede llevar al suicidio, como ocurrió en 1976 cuando un grupo de miembros se prendió fuego frente a la cárcel donde estaba encerrado su líder, en la India (en su país de origen la secta fue prohibida y penalizada por el gobierno de Indira Gandhi).

En Occidente se presentan como un grupo orientado y dedicado a la práctica del yoga. A los asistentes se les explica que es imposible crecer interiormente si no aumentan la frecuencia de las clases. Terminan transformándose en fanáticos de la secta.

La Misión de la Luz Divina
“Si venís a mí con un corazón puro y un deseo sincero de luz, yo os daré la paz eterna”. Esto lo dijo el Gurú Maharáj Ji, señor del universo, Maestro de la sabiduría perfecta, encarnación actual de Jesucristo, Buda y Krishna. Su “nombre terrenal” es Prempal Rawí, quien se convierte en líder de la secta en 1966, cuando tenía 8 años de edad.

En la década del setenta, cerca de medio millón de fanáticos propulsaron el crecimiento económico de la secta, que alcanzó cuantiosas posesiones terrenales: costosas residencias en todo el mundo, jets particulares, pozos de petróleo en Texas y docenas de Rolls Royce blancos.

En 1974, el famoso gurú decidió abandonar su misticismo y a los 16 años se casó con su secretaria. Con esto empieza la declinación de la secta. Actualmente realizan su actividad pro-selitista de manera totalmente secreta, y afortunadamente su influencia es cada vez menor.

Sectas peligrosas
Los Testigos de Jehová
Nacen en 1872 cuando el norteamericano Carlos Russel reniega de la iglesia adventista y se reúne con algunos jóvenes a estudiar la Biblia, especialmente las profecías. Según este grupo, Cristo había regresado en forma espiritual en 1874, y auguraron el fin del mundo para 1914.

Su doctrina es totalmente apocalíptica: denunciaron el fin del mundo para 1914, 1925, 1976, 1984, etc. No creen en la divinidad de Jesús y rechazan la inmortalidad del alma. Desde su nacimiento como organización han tenido numerosos problemas con la ley, fundamentalmente por negarse a aceptar los deberes cívicos y sociales. También por rechazar las transfusiones de sangre. Este punto en particular provoca el rechazo mayoritario hacia este grupo, que deja’ morir a quien puede salvar su vida por una transfusión.

Esto se debe a una particular lectura de las escrituras. En Levítico 17:14 dice: “…Porque la sangre de todo ser viviente contiene su vida. Por eso mandé a los hijos de Israel: ‘no comerán la sangre de ningún animal’. El que la coma será eliminado”.

Una de las prioridades de los Testigos, además de la prédica casa por casa, son las comunicaciones sociales. En Nueva York poseen una emisora, una editorial y el Instituto Bíblico. Este grupo es sumamente peligroso. Si un adepto se aleja de su doctrina, el resto le hará la vida imposible.

Entre sus bases doctrinarias figuran las escritas por Franklin Rufherford, uno de sus primeros dirigentes: “…a los que han sido nuestros y se han apartado no los podemos matar por que las leyes no lo autorizan, pero si nosotros pudiésemos ejercer ya el dominio total, los mataríamos al instante. Lo mejor que se puede hacer, entonces, es considerarlos bien muertos”.

Mormones:

También conocida como Iglesia de los Santos de los Últimos Días, la agrupación de los mormones fue creada en 1823 en los Estados Unidos por Joseph Smith quien, según su relato recibió en su juventud la visita de Jesús diciéndole que ninguna de las iglesias existentes hasta entonces era la verdadera. En otra aparición, un ángel llamado Moroni, le reveló que había sido elegido para formar una nueva iglesia.

La doctina de los mormones se basa en que Jesús fundó una segunda iglesia en América porque la de Palestina había fracasado. Descreen de la divinidad de Jesús, de quien dicen se casó y tuvo varias esposas. Son profundamente racistas: sostienen que el color negro en la piel humana es un castigo divino. Se calcula que en la actualidad suman cinco millones de miembros, distribuidos en setenta y cinco países.

Los mormones bautizan a sus muertos, y consideran que lograr triunfos en política, negocios o educación es parte de un procedimiento que los acerca al Reino Celestial.

Umbanda
Comprende varios grupos afro-brasileños formados en base a religiones africanas, en un sincretismo de católicos, cultos indígenas, espiritismo y ocultismo. El Umbanda se empezó a organizar como culto a fines del siglo pasado en la ciudad de Bahía, y desde allí se difundió por todo Brasil, y a varios países latinoamericanos.

Se trata de un culto dirigido por un Pae o Mae, sacerdotes mayores varón o mujer respectivamente, cuyas prácticas tienen como fin último ahuyentar “a los espíritus malignos causantes de enfermedad”. A veces, para llevar a cabo este objetivo es necesario realizar el sacrificio de animales comestibles.

El umbandismo, como el espiritismo y otros que trabajan entre los sectores más pauperizados pueden ser peligrosos desde el punto de vista de lo físico, ya que muchos enfermos graves dejan de lado la medicina tradicional en la seguridad de que el pae o la mae solucionarán su problema.

Espiritismo
Se basa en la supuesta existencia de personas poseedoras de poderes especiales, mediante los cuales se pueden comunicar con los muertos. Para los espiritistas existen tres revelaciones. La primera es la de Moisés, donde Dios anuncia los diez mandamientos; la de Cristo, que establece el amor a Dios sobre todas las cosas y finalmente la del espiritismo.

En ella se habla de la llegada del Espíritu Santo, el cual no descendió sobre los apóstoles el día de Pentecostés, sino que llegó con Alian Kardec, quien difundió esta doctrina por Francia a partir de 1857.

Quienes practican este culto, creen que la única salvación del hombre está dada por la perfección de las técnicas espiritistas. En ellas, los médiums se sientan alrededor de una mesa, invocap a los muertos, y cambian “energía negativa por positiva”. Las personas dominadas por estas ideas tienen su personalidad debilitada por la creencia casi enfermiza de que todo su accionar se rige por la acción de fuerzas del más allá.

Iglesia Electrónica
Es, sin ninguna duda, una consecuencia casi esperable del asombroso proceso de transformación que sufrieron los siste-
mas de comunicación humano en la última mitad de este siglo.

Mientras las estimaciones históricas ubican la cantidad de oyentes de Jesús a lo largo de toda su vida en no más de treinta mil personas, la Iglesia Electrónica, con el aporte de los satélites de comunicación, permite que mil millones de personas puedan ser alcanzadas simultáneamente por los nuevos predicadores de la palabra del Evangelio.

Billy Graham, Pat Robertson, Jimmy Swagart y Rex Humbard, son los nombres más conocidos entre los predicadores que, utilizando los medios de comunicación, hoy generan ganancias que globalmente generan dos mil millones de dólares anuales.

Esto se explica de la siguiente manera: estudios norteamericanos han demostrado que la gente, cuanto más mira televisión, más adopta una visión negativa del mundo. Creen que el mundo es muy peligroso, poco seguro, y son más permeables a mensajes que prometen mayor seguridad. En este contexto encajan perfectamente los teleevangelistas.

Su actividad está, por cierto, bastante lejos de la humildad pregonada por Jesucristo. Basta recordar algunos conceptos de Pat Robertson, el número uno de los telepredicadores: “…Dios es el más generoso firmante de cheques, pues retribuye siempre nuestros depósitos con excelentes intereses… el capitalismo está coherentemente proyectado dentro de las esferas divinas”.

New Age (Era de Acuario)
Este movimiento reconoce su origen en 1980, en California. Una de sus principales impulsoras, la americana Marilyn Ferguson, describió una “revolución en marcha, una transformación radical de todas las actividades humanas… la Conspiración de acuario involucra a millones de personas que están cambiando a la sociedad”.

Este movimiento se basa en cuatro conceptos:
a) Pretende apoyarse en bases científicas.
b) Trabaja con principios de yoga y el concepto de reencamación de religiones orientales,
c) Maneja elementos de la psicología de Jung.
d) Toma a la astrología como ciencia exacta, los astros ejercen influencia en todas nuestras actividades.
Para los cultores de este movimiento, acabamos de entrar en la Era de Acuario, donde se producirá nuestra verdadera liberación espiritual.

La New Age toma forma de numerosas disciplinas pseudo-científicas que toman diversos nombres: control mental, terapia floral de Bach, cosmobiología, bioenergía, biodinámica, numerología, desarrollo de percepción extrasensorial, etc. Con todas estas técnicas, los “newagers” tratan de acercarse a Dios! Incluso, han modernizado sus teorías al punto de considerar que el mismo Jesús es un extraterrestre que órbita en su nave alrededor del planeta (sectas platillistas).

Este movimiento, si bien no es peligroso en sí mismo, constituye un verdadero caldo de cultivo para la aparición de nuevos y peligrosos profetas de las “sectas de la Nueva Edad”.

 

Fuente Consultada:
Resumen del libro “Las Secta Que Dominan El Mundo” de la revista Magazine Enciclopedia Popular N°27 Año 3

Biografia Ronaldinho Grandes Jugadores de Futbol de la Historia

Biografía Ronaldinho
Grandes Jugadores de Futbol de la Historia

Ronaldinho

RONALDHINO: BIOGRAFÍA DE GRANDES ARTISTAS Y DEPORTISTAS DEL MUNDOEsta es la historia que se repite en muchas ocasiones, la que relata la infancia de un pequeño niño humilde, que depositó sus ansias de superación en una pelota de fútbol, la cual sin saberlo lo llevaría por el camino de la consagración total, esa consagración que le ha permitido a Ronaldinho no sólo dejar atrás aquella pobreza que padeció durante su infancia, sino también convertirse en un millonario, con una fortuna que actualmente se calcula en los 32 millones de dólares.

Ronaldinho Gaúcho, tal su nombre completo, llegó a este mundo el 21 de marzo de 1980 en la ciudad de Porto Alegre, en Brasil, en el seno de una familia humilde, que vivía en una precaria casa de madera construida dentro de una de las favelas de la zona.

Más allá de la pobreza, había en esa familia una pasión que despertaba la alegría de todos: el fútbol, deporte que por momentos les servía para escapar de su dura realidad diaria. Ronaldinho creció amando el fútbol, y aquello fue convirtiéndose poco a poco en una verdadera obsesión.

No obstante, el primero de la familia en conseguir concretar el sueño de ser futbolista fue su hermano Roberto, quien poseía un talento para el juego, lo que le permitió firmar contrato con el FC Grêmio, y de esta manera la familia Gaúcho logró salir de la favela.
En aquel entonces, la vida era buena para toda familia, pero cuando Ronaldinho había cumplido los ocho años, su padre sufrió un ataque cardíaco fatal que le costó la vida, y poco después su hermano Roberto debió abandonar su carrera de futbolista debido a una lesión sufrida en la cancha que le estropeó la rodilla para siempre.

Todo ello hizo que Ronaldinho se propusiera aún más una meta a cumplir, por lo que comenzó a entrenar diariamente en la playa, lugar donde desarrolló su técnica de superación.

De esta manera, la carrera de Ronaldinho se inició cuando había cumplido los 13 años, momento en el cual jugaba para un equipo local, que logró importantes triunfos gracias al trabajo de Ronaldinho en la cancha. Aquello le valió un contrato con el FC Gremio, para jugar en su equipo de juveniles.

Posteriormente, con sólo 17 años fue parte del equipo Sub-17 de WC en Egipto, ganando allí el Bronze Ball (pelota de bronce) por su desenvolvimiento, y comenzó a ser considerado por la prensa mundial como un verdadero niño prodigio. Un año después de aquello, debutó con el equipo de de primera del Gremio en la Copa Libertadores.

A partir de allí, la carrera de Ronaldinho fue rápidamente en ascenso, y muy pronto comenzó a ser requerido por los más prestigiosos equipos europeos, tales como el Paris Saint-Germain, el Barça, el AC Milan, al mismo tiempo que ocupó en varias oportunidades el rol de Capitán de la Selección Nacional de Fútbol brasileña en diversos campeonatos de la Copa Mundial.
Su excelente desenvolvimiento no sólo le permitió convertirse en el mejor jugador del mundo de la FIFA en 2004, sino que además fue el motivo por el cual se erigió en Chapecá, Brasil, una estatua de 7 metros en su honor.

No obstante, lo cierto es que con el paso de los años, el talento de Ronaldinho comenzó a ser cuestionado y criticado constantemente. Muchos aseguran que ya no volverá a ser aquel futbolista que solía ser en el 2004, algunos sostienen que se debe a las lesiones sufridas por el jugador, mientras que otros dicen que Ronaldinho ya no se interesa por su carrera, y prefiere las fiestas.

Pero más allá de cuál sea la razón, lo cierto es que Ronaldinho ha logrado alcanzar aquella meta que se propuso de niño, e incluso superar con creces sus ambiciones.

Fuente: Graciela Marker Para Planeta Sedna

Grandes Masacres en la Historia Crules Matanzas Históricas

LAS MATANZAS Y MASACRES MAS CRUELES DE LA HISTORIA

masacres humanas

Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Asedio en Masada
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Guerra de las Galias
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Las Cruzadas
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Los Mongoles
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Masacre de San Bartolomé
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Iván, el terrible
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Conquista de América
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Guerras del Opio
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Leopoldo II en el Congo
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Stalin en Ucrania
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Genocidio Armenio
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Genocidio Judío
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Masacre en Argelia
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Genocidio en Camboya
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Hambruna de China
Grandes Masacres en la Historia Matanzas Historicas de Seres Humanos
Ruanda: Hutus-Tutsis

Masacre en Srebrenica

Masacre de My Lai

Bomba en Hiroshima

Masacre en las Torres Gemelas

Masacre de Nanking (China)

Masacre en Guatemala
  Grandes Masacres en Argentina Matanzas Historicas de Seres Humanos
Masacre en Ezeiza

Masacre de los Cretenses
Grandes Masacres en Argentina Matanzas Historicas de Seres Humanos
Masacre en Trelew
Grandes Masacres en Argentina Matanzas Historicas de Seres Humanos
Masacre en la Patagonia
Grandes Masacres en Argentina Matanzas Historicas de Seres Humanos
Masacre en Plaza de Mayo

Teoría Especial de la Relatividad Explicacion Sencilla Albert Einstein

Teoría Especial de la Relatividad
Explicación Sencilla

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Biografia de Max Planck Científico Creador de la Teoría Cuántica

Biografía de Max Planck
Científico Creador de la Teoría Cuántica

Max Planck Cientifico Teoria Cuantica

PLANCK, MAX (1858-1947)
Físico alemán, realizó estudios en las universidades de Berlín y Munich. Obtuvo el doctorado con una tesis sobre el principio de la termodinámica, en 1879. A partir de 1885, fue profesor en Kiel y de 1889, en Berlín.
Se dedicó al estudio de la física teórica y, en particular, ab problema de la termodinámica.

BIOGRAFÍA DE Max Planck (1858-1947)
Planck nació en Kiel, Alemania, en 1858. Sexto hijo de un profesor de leyes en la Universidad de Kiel, descendía de una estirpe de académicos; su abuelo y su bisabuelo habían sido también profesores.

Cuando tenía nueve años, su padre aceptó un empleo en la Universidad de Munich. En el colegio al que asistió en Munich había un excelente profesor de matemáticas y física, y el joven se interesó mucho en estas dos disciplinas. Siempre estuvo entre los mejores estudiantes.

Planck entró a estudiar física en la Universidad de Munich pero no congenió con su profesor, Philipp von Jolly Von Jolly le dijo que no había en física nada nuevo que descubrir. Descontento con la universidad, decidió trasladarse a la Universidad de Berlín, donde enseñaban los célebres físicos Hermann von Helmholtz y Gustav Kirchhoff.

Como Einstein años después, Planck se interesó en temas que no se enseñaban en los cursos; estudió el trabajo de Rudolf Clausius sobre termodinámica en los artículos originales. Luego de graduarse, Planckescribió una tesis sobre la segunda ley de la termodinámica y la presentó a la Universidad de Munich para obtener el título de doctor. La tesis fue aprobada y Planck obtuvo su doctorado en física a los 21 años.

Como muchos doctores en física de la época, Planck estaba interesado en una carrera académica. En esa época en Alemania, si uno quería ser profesor debía comenzar como instructor, o Privatdozent, cargo con responsabilidades docentes pero sin salario. Los Privatdozent recibían pequeños honorarios de los estudiantes por la administración de exámenes. Pero se necesitaba otro trabajo para sobrevivir. Planckfue Privatdozent en Munich de 1880 a 1885. En 1885 fue promovido a la categoría de profesor asociado, lo que significaba tener finalmente un salario regular por enseñar.

Con ingresos estables, se casó con su novia de la niñez, Marie Merck. En 1889 se trasladó a la Universidad de Berlín como profesor de tiempo completo, en reemplazo de Kirchhoff, quien se jubilaba.

Planck fue también un pianista dotado; antes de decidirse por la física, había pensado seriamente en una carrera musical. Se convirtió en uno de los científicos más importantes de su tiempo, y se hizo acreedor en 1918 al premio Nobel de física por su descubrimiento del cuanto de energía.

Planck y Borh

Las dos figuras centrales de la nueva fisica del siglo XX: Bohr y Planck.Las teorías cuánticas de Planck fueron desarrolladas e incluso modificadas por muchos científicos, pero se constituyeron en la base fundamental de toda la física cuántica actual.Fue uno de los primeros en entender y aceptar Ja teoría de la relatividad, la que divulgó y desarrolló desde su exposición. Así mismo, trabajó con éxito en los campos de la mecánica y la electricidad.
En 1918, recibió el premio Nobel de física en reconocimiento su labor en la cuantificación de la energía.

OBRA CIENTÍFICA: Cuando el siglo XIX llegaba a su fin, muchos físicos se hacían preguntas sobre la tan honrada mecánica de Newton. En macular, ¿seguía describiendo toda la naturaleza? En su búsqueda, los científicos empezaron a agruparse en dos campos.

Unos buscaba la respuesta estudiando lo que se llamaba “electrodinámica”, la relación entre la mecánica y la electricidad. Los otros buscaban en la termodinámica y sus dos leyes básicas. La primera ley reconocía que la energía ni se crea ni se destruye, sino que siempre se conservaba, y la segunda ley se basaba en la idea de que el calor no pasaría de un cuerpo más frío a uno más caliente.

El estudio de la termodinámica se basaba en suponer que la materia estaba compuesta de partículas. Sin embargo, esto suponía un problema, ya que los átomos no habían sido descubiertos. En su lugar, la visión tradicional era que la — atería era continua, no compuesta de discretos bloques de construcción.

A mediados de los 1870, Ludwig Boltzmann había propuesto una explicación termodinámica en la que la energía contenida en un sistema es el resultado colectivo del movimiento de muchas moléculas diminutas. Creía que la segunda ley sólo era válida en sentido estadístico, sólo funcionaba si le añadían todos los trocitos de energía a todas as pequeñas partículas.

Boltzmann tenía respaldo, pero había muchos que dudaban. Entre los detractores estaba Max Karl Ernst Ludwig Planck.  Estaba fascinado con la segunda ley de la Termodinámica, pero rechazaba la versión estadística de Boltzmann porque dudaba de la hipótesis atómica sobre la que descansaba.

En 1882 afirmó falsamente: “a pesar del gran éxito de la teoría atómica en el pasado, finalmente vamos a tener que renunciar a ella, y decidir en favor de la suposición de que la materia es continua”.

Durante los años 1890, Planck empezó a ver que la hipótesis atómica tenía el potencial de unificar distintos fenómenos físicos y químicos, pero su propia investigación estaba dirigida a encontrar una solución no atómica.

En su famosa ley de radiación (1901), asegura que la radiación energética no puede ser emitida en cantidades arbitrarias, sino en ciertos paquetes que él llamó cuantos. Cada cuanto debe poseer cierta cantidad de energía, que va en aumento mientras la frecuencia oscilatoria de los electrones sea mayor, de modo que para frecuencias muy altas, la emisión de un único cuanto requeriría más energía de la que es posible obtener. De esta forma, la radiación de altas frecuencias se reduce y el ritmo con que el cuerpo pierde energía es, por consiguiente, finito. En su teoría cuántica, el físico alemán consigue explicar muy bien la emisión de radiación por cuerpos calientes, y además indica de qué manera se distribuye la energía en el espectro de radiación de cuerpos negros.

De los cuerpos negros a los quanta
Planck y sus contemporáneos miraban a las teorías electrodinámicas del físico escocés James Clerk Maxwell para encontrar respuestas, pero fueron un fracaso. En su lugar, un nuevo entendimiento emergió cuando volvieron su atención hacia la radiación de cuerpos negros. Un cuerpo negro es un objeto teórico que absorbe toda la radiación que lo golpea. Dado que no refleja nada, es negro. Mientras que un cuerpo negro no refleja radiación, sigue radiando calor.

De otro modo, seguiría absorbiendo y su temperatura se elevaría indefinidamente. La cosa más parecida que existe hoy es el avión espía americano Blackbird, que está cubierto con un pigmento absorbente que intenta absorber toda la radiación.

La primera persona en pensar sobre los cuerpos negros había sido el predecesor de Planck como profesor de física en Berlín, Robert Kirchhoff que afirmó que semejante radiación era de una naturaleza fundamental. Para los 1890, varios físicos estaban investigando la distribución espectral de la radiación. En 1896, Wilhelm Wien pronunció una ley de radiación que cuadraba con las observaciones experimentales, pero que, según Planck, era teóricamente débil, así que la rechazó. En 1899, Planck procuró una nueva versión, que incorporaba algunas de las ideas de Boltzmann, a la que a veces se denomina la ley de Wien-Planck. Planck estaba satisfecho. En ese punto sentía que la ley se ajustaba a los datos experimentales y tenía unas bases teóricas sólidas.

Lamentablemente para Planck, se convirtió en una bella teoría destruida por los crudos hechos. Los experimentos realizados en Berlín mostraron que no funcionaba con la radiación de baja frecuencia. Después de revisar sus ideas, apareció con un nuevo concepto que incluía un valor para una constante llamada “b” y lo presentó en una reunión en la Sociedad Alemana de Física el 19 de octubre de 1900.

Si embargo, la nueva teoría aún no tenía ninguna noción de partículas o energía cuántica. A posteriori, podemos ver que la respuesta real estaba justo delante de su cara, pero estaba tan seguro de la continuidad de la materia que no podía verlo. Dos meses después, y como “un acto de despecho”, renunció a la física clásica y abrazó la cuántica. La gota final había sido un concepto desarrollado por John Rayleigh y James Jeans que se conocería como la teoría de la “catástrofe ultravioleta”. En junio de 1900, Rayleigh indicó que la mecánica clásica, cuando se aplica a los osciladores de cuerpos negros, lleva a una distribución de energía que aumenta en proporción al cuadrado de la frecuencia. Esto entraba en conflicto con todo lo conocido.

La desesperación de Planck lo llevó a introducir lo que llamó “elementos de energía” o quanta. En su presentación a la Sociedad Alemana de Física el 14 de Diciembre de 1900, Planck dijo que la energía “está hecha de un número completamente determinado de finitas partes iguales, y para ese propósito usó la constante de la naturaleza h = 6.55 x 10-(erg sec)”.

Había nacido la teoría cuántica, aunque llevaría dos o tres décadas más y muchas mentes con talento darse cuenta de h implicaciones de la nueva era.

Cronología
1858: Nace en Kiel, Alemania, en una familia académica. Su padre era profesor de derecho constitucional en Kiel, y tanto su abuelo como su bisabuelo fueron profesores de teología en Gottingen

1867: Se muda a Munich, donde va a la escuela

1874: Estudia en Munich con Gustav Kirchhoff. Antes de empezar, discutió el prospecto de investigación física con el profesor de física Philipp von JolLy, quién se supone le dijo que la física era esencialmente una ciencia completa, con pocas posibilidades  de desarrollo. Afortunadamente parece que ignoró los comentarios, antes de mudarse a Berlín para estudiar con Hermann von Helmholtz

1889-1926: Profesor de física, Berlín

1900: Anuncia su Teoría Cuántica

1914-1918: Su hijo mayor muere en la Primera Guerra Mundial

1918: Recibe el Premio Nobel

1926: Elegido miembro Extranjero de la Royal Society

1944: Su hijo menor, Erwin, es ejecutado cuando lo declaran culpable de estar envuelto en un complot para asesinar a Hitler

1947: Muere en Gottingen el 3 de octubre. Después de saber de su muerte, Albert Einstein escribió: “Qué diferente y cuánto mejor sería la humanidad si hubiera más como él… Parece que los personajes buenos de todas las edades y continentes tienen que permanecer aparte del mundo, incapaces de influir en los eventos”.

PARA SABER MAS…: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias.

Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados  por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas. Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Teóricamente, un sistema que contiene radiaciones de diversas frecuencias distribuye su energía del mismo modo que un sistema que contiene moléculas de gas de muy diversas velocidades. Pero existe una diferencia capital: la velocidad de las moléculas de un gas posee un límite superior irrebasable y, en cambio, la frecuencia de las posibles radiaciones es incomparablemente superior. El sistema de radiaciones se asemejaría al sistema acústico
de un piano con un número ilimitado de cuerdas, cada vez más reducidas. Al pulsar cualquier nota, el piano resonaría con frecuencias cada vez más elevadas, mientras la energía de la nota original se transmitiría por la escala musical hasta el infinito.

Planck trató de explicar por qué este resultado, previsto teóricamente, no se producía en la práctica. Al fin tuvo que adoptar unos supuestos totalmente distintos. En diciembre de 1900 propuso en una conferencia científica que la energía radiante se producía y recibía en lotes discontinuos e indivisibles que denominó cuantos, término procedente del latín (quantum significa «porción»). La energía de estos cuantos es directamente proporcional a la frecuencia de la radiación. Es decir, se obtiene multiplicando dicha frecuencia por una cifra que hoy denominamos «constante de Planck».

Planck había descubierto que la energía no podía dividirse hasta el infinito, como hasta entonces se había supuesto. Existía un «impulso» de energía mínimo, por debajo del cual no se producía intercambio energético alguno. Para una radiación, cuya frecuencia sea la unidad, se obtiene precisamente el valor de ese cuanto mínimo de energía o constante de Planck.

Se representa por la letra h, y su valor en unidades cegesimales es 6,547 x 10-27 ergios por segundo, cifra realmente insignificante pero que, a escala atómica, posee decisiva importancia.

A partir de 1905, Albert Einstein comenzó a desarrollar las ideas de Planck, mientras éste prosiguió durante muchos años realizando importantes contribuciones en los campos de la termodinámica y de la teoría de los cuantos.

Fuente Consultadas:
Einstein Para Dummies Carlos I. Calle
Las Grandes Ideas Que Formaron Nuestro Mundo Peter Moore – Max Planck

Biografia de Louis Pasteur Teoria microbiana de la enfermedad

PASTEUR Y SU TEORÍA MICROBIANA DE LA ENFERMEDAD

Pasteur, Louis (1822-1895), químico y biólogo francés que fundó laciencia de la microbiología, demostró la teoría de los gérmenes como causantes de enfermedades (patógenos), inventó el proceso que lleva su nombre y desarrolló vacunas contra varias enfermedades, incluida la rabia.

Pasteur, hijo de un curtidor, nació en Dôle el 7 de diciembre de 1822, y creció en la pequeña ciudad de Arbois. En 1847 obtuvo un doctorado en física y química por la École Normale de París.

Tras convertirse en ayudante de uno de sus profesores, inició investigaciones que le llevaron a un descubrimiento significativo: comprobó que un rayo de luz polarizada experimentaba una rotación bien a la izquierda o a la derecha cuando atravesaba una solución pura de nutrientes producidos naturalmente, mientras que si atravesaba una solución de nutrientes orgánicos producidos artificialmente no se producía rotación alguna.

No obstante, si se incorporaban bacterias u otros microorganismos a la segunda solución, al cabo de cierto tiempo también hacía rotar la luz a la izquierda o la derecha.

Pasteur llegó a la conclusión de que las moléculas orgánicas pueden existir en una o dos formas, llamadas isómeros (es decir, que tienen la misma estructura y difieren tan sólo en que son imágenes especulares la una de la otra), que llamó, respectivamente, formas levógiras y formas dextrógiras.

Cuando los químicos sintetizan un compuesto orgánico, se producen ambas formas en igual proporción, cancelando sus respectivos efectos ópticos. Los sistemas orgánicos, por el contrario, tienen un elevado grado de especificidad y capacidad para discriminar entre ambas formas, metabolizando una de ellas y dejando la otra intacta y libre para rotar la luz.

RESUMEN DE SUS DESCUBRIMIENTOS:

1- Estableció en 1847 que la cristalografía simétrica es propia de los minerales, mientras que los materiales orgánicos desarrollan cristalografías asimétricas.

2- Descubrió la vida anaeróbica y de allí explicó la gangrena.

3- Estudió y manejó en 1855, la fermentación anaeróbica como clave de la industria del vino.

4- Desarrolló la ‘Pasteurización por calor que destruye los microbios sin afectar los alimentos.

5- Demostró que la generación espontánea no existe, y que existen los microbios, con lo que dio el golpe final a las teorías científicas aristotélicas.

6- Mostró que los microbios son distintos entre si, se nutren de distintos alimentos y responden a distintos bactericidas.

7- Descubrió que formas atenuadas de microbios pueden usarse para generar inmunidad, tema en el que completó los trabajos de 1798 del británico Edward Jenner (1749-1823) sobre vacunas y protección contra la viruela.

8- Impuso normas higiénicas en los hospitales para evitar el contagio de enfermedades, asumiendo la existencia de los microbios.

9- Hizo posible la industria de la seda en Francia, resolviendo en 1865 las enfermedades de los gusanos productores.

10- Encontró que la rabia se transmite por algo que no es visible al microscopio (virus) y creó su vacuna en 1885.

11- Encontró la cura para el Ántrax del ganado y el cólera de las aves.

12- Creó el “Instituto Pasteur” para enfermedades infecciosas, inaugurado por el presidente de Francia Sadi Carnot en 1888, que hoy es centro mundial de investigaciones; en su discurso inaugural, dijo: Insto a Uds a interesarse en los sagrados dominios de los laboratorios, que son los templos del futuro. Allí es donde la humanidad crecerá y se fortalecerá”.

EXPLICACIÓN DE SU PRINCIPALES TRABAJOS:
Trabajos sobre la fermentación
Tras pasar varios años investigando e impartiendo clases en Dijon y Estrasburgo, en 1854 Pasteur marchó a la Universidad de Lille, donde fue nombrado catedrático de química y decano de la facultad de ciencias. Esta facultad se había creado, en parte, como medio para aplicar la ciencia a los problemas prácticos de las industrias de la región, en especial a la fabricación de bebidas alcohólicas. Pasteur se dedicó de inmediato a investigar el proceso de la fermentación.

Aunque su convicción de que la levadura desempeñaba algún tipo de papel en este proceso, no era original, logró demostrar, gracias a sus anteriores trabajos sobre la especificidad química, que la producción de alcohol en la fermentación se debe, en efecto, a las levaduras y que la indeseable producción de sustancias (como el ácido láctico o el ácido acético) que agrian el vino se debe a la presencia de organismos como las bacterias. La acidificación del vino y la cerveza había constituido un grave problema económico en Francia; Pasteur contribuyó a resolver el problema demostrando que era posible eliminar las bacterias calentando las soluciones azucaradas iniciales hasta una temperatura elevada.

Pasteur hizo extensivos estos estudios a otros problemas, como la conservación de la leche, y propuso una solución similar: calentar la leche a temperatura y presión elevadas antes de su embotellado. Este proceso recibe hoy el nombre de pasteurización.

Pasteur en su laboratorio

Un incansable investigador

Refutación de la generación espontánea
Plenamente consciente de la presencia de microorganismos en la naturaleza, Pasteur emprendió una serie de experimentos diseñados para hacer frente a la cuestión de la procedencia de estos gérmenes. ¿Se generaban de forma espontánea en las propias sustancias o penetraban en ellas desde el entorno? Pasteur llegó a la conclusión de que la respuesta era siempre la segunda. Sus descubrimientos dieron lugar a un feroz debate con el biólogo francés Félix Pouchet -y posteriormente con el reputado bacteriólogo inglés Henry Bastion- que mantenía que, en las condiciones apropiadas, podían darse casos de generación espontánea. Estos debates, que duraron hasta bien entrada la década de 1870, a pesar de que una comisión de la Academia de Ciencias aceptó oficialmente los resultados de Pasteur en 1864, dieron un gran impulso a la mejora de las técnicas experimentales en el campo de la microbiología.

Estudios sobre el gusano de seda
En 1865 Pasteur salió de París, donde era administrador y director de estudios científicos de la École Normale, en auxilio de la industria de la seda del sur de Francia. La enorme producción de seda del país se había visto muy afectada porque una enfermedad del gusano de seda, conocida como pebrina, había alcanzado proporciones epidémicas. Al sospechar que ciertos objetos microscópicos hallados en los gusanos enfermos (y en las mariposas y sus huevos) eran los organismos responsables de la enfermedad, Pasteur experimentó con la cría controlada y demostró que la pebrina no sólo era contagiosa, sino también hereditaria. Llegó a la conclusión de que la causa de la enfermedad sólo sobrevivía en los huevos enfermos vivos, por tanto, la solución era la selección de huevos libres de la enfermedad. Merced a la adopción de este método, la industria de la seda se salvó del desastre.

Teoría de los gérmenes como causa de enfermedades
Los trabajos de Pasteur sobre la fermentación y la generación espontánea tuvieron importantes consecuencias para la medicina, ya que Pasteur opinaba que el origen y evolución de las enfermedades eran análogos a los del proceso de fermentación. Es decir, consideraba que la enfermedad surge por el ataque de gérmenes procedentes del exterior del organismo, del mismo modo que los microorganismos no deseados invaden la leche y causan su fermentación.

Este concepto, llamado teoría microbiana de la enfermedad, fue muy debatido por médicos y científicos de todo el mundo. Uno de los principales razonamientos aducidos en su contra era que el papel desempeñado por los gérmenes en la enfermedad era secundario y carecía de importancia; la idea de que organismos diminutos fueran capaces de matar a otros inmensamente mayores le parecía ridícula a mucha gente. No obstante, los estudios de Pasteur mostraban que estaba en lo cierto, y en el transcurso de su carrera hizo extensiva esta teoría para explicar las causas de muchas enfermedades.

La investigación sobre el carbunco
Pasteur desveló también la historia natural del carbunco, una enfermedad mortal del ganado vacuno. Demostró que el carbunco está causado por un bacilo determinado y sugirió que era posible inducir una forma leve de la enfermedad en los animales vacunándoles con bacilos debilitados, lo que les inmunizaría contra ataques potencialmente letales. Con el fin de demostrar su teoría, Pasteur empezó inoculando 25 ovejas; pocos días más tarde inoculó a éstas y otras 25 un cultivo especialmente poderoso, y dejó sin tratamiento a 10 ovejas. Predijo que las segundas 25 ovejas perecerían y concluyó el experimento de forma espectacular mostrando a una multitud escéptica los cadáveres de las mismas dispuestas una junto a la otra.

La vacuna contra la rabia
Pasteur dedicó el resto de su vida a investigar las causas de diversas enfermedades -como la septicemia, el cólera, la difteria, el cólera de las gallinas, la tuberculosis y la viruela- y su prevención por medio de la vacunación. Es especialmente conocido por sus investigaciones sobre la prevención de la rabia, llamada también hidrofobia en la especie humana. Tras experimentar con la saliva de animales afectados por la enfermedad, Pasteur llegó a la conclusión de que la enfermedad residía en los centros nerviosos: inyectando un extracto de la médula espinal de un perro rabioso a animales sanos, éstos mostraban síntomas de rabia. Estudiando los tejidos de animales infectados, sobre todo de conejos, Pasteur consiguió desarrollar una forma atenuada del virus que podía emplearse en inoculaciones.

En 1885 llegaron al laboratorio de Pasteur un muchacho y su madre. El joven había sufrido graves mordeduras de un perro rabioso y su madre le pidió a Pasteur que le tratara con su nuevo método. Al final del tratamiento, que duraba diez días, el muchacho estaba siendo inoculado con el virus de la rabia más potente que se conocía; se recuperó y conservó la salud. Desde entonces, miles de personas se han salvado de la enfermedad gracias a este tratamiento.

Las investigaciones de Pasteur sobre la rabia inspiraron la creación, en 1888, de un instituto especial para el tratamiento de la enfermedad en París. Este acabó llamándose Instituto Pasteur, y fue dirigido por el propio Pasteur hasta su muerte. (El Instituto sigue adelante y es uno de los centros más importantes del mundo para el estudio de enfermedades infecciosas y otros temas relacionados con los microorganismos, incluyendo la genética molecular).

Cuando le llegó la muerte en St. Cloud el 28 de septiembre de 1895, Pasteur era ya considerado un héroe nacional y había recibido todo tipo de honores. Se celebró un funeral propio de un jefe de estado en la catedral de Notre Dame y su cuerpo fue inhumado en una cripta en el instituto que lleva su nombre.

frases de pasteur louis

LA SALVACIÓN DE JOSEPH MEISTER

En julio de 1885 se le presentó a Pasteur el caso de Joseph Meister, un pastorcito de 9 años de edad que había sido atacado por un perro rabioso en una aldea de Alsacia, Francia, donde vivía. El médico del lugar temió por su vida y decidió enviarlo a París  para que lo examinara el famoso químico.

Pasteur quedó impresionado por las 12 o mas mordeduras profundas que el niño mostraba en manos y piernas. Ese mismo día el doctor Jacques Grancher, colega de Pasteur, le inyectó a Joseph líquido cefalorraquídeo tomado de la médula espinal de un conejo que había muerto de rabia 15 días antes. Joseph —que llegó acompañado de su madre— fue llevado al alojamiento que le había conseguido Pasteur, y entonces se inició una prolongada y angustiosa espera cada día le administraban una inyección más potente al niño.

“En los últimos días del tratamiento”,escribió después Pasteur, “le inoculé el germen más virulento que pude obtener: el de un perro… Mi justificación era la experiencia que había tenido con 50 perros rabiosos. Una vez que se ha adquirido la inmunidad, hasta el peor virus se puede inyectar sin efectos dañinos.’

Al cabo de dos semanas y aún sin resolverse el destino de Joseph, Pasteur no pudo soportar más la espera y se tomó unas breves vacaciones en la provincia de Borgoña. “Viví cada día con el temor de recibir un telegrama que me dijera que había ocurrido lo peor, escribiría después.

Pero el telegrama nunca llegó y Pasteur regresó a París para enterarse de que el niño se había recuperado por completo. Durante los 18 meses siguientes, unas 2.500 personas fueron curadas por Pasteur con el mismo tratamiento, tras  haber sido mordidas por animales rabiosos. Sobrevivieron todas menos diez.

Además de proveer un remedio para combatir la rabia, la labor de Pasteur abrió camino a la inmunología. Gracias a las vacunas hoy día es posible prevenir unas 30 enfermedades invalidantes o mortales, entre ellas el sarampión, la poliomielitis y la difteria. En 1888 se inauguró en París el Instituto Pasteur, en parte para emprender más investigaciones destinadas a la prevención y el tratamiento de la temible hidrofobia.

A pesar de una apoplejía que lo dejó semiparalizado, el ya famoso químico dirigió dicha institución hasta su muerte, el 28 de septiembre de 1895. Fue sepultado en una magnífica tumba de mármol dentro del Instituto, cuyo epitafio él mismo había dictado.

LA FUNDACION DEL INSTITUTO PASTEUR:

instituto pasteur

En 1885 descubrió la vacuna contra la rabia, lo que le proporcionó renombre universal. Imaginó entonces crear un centro de estudios e investigaciones, para lo cual pidió dinero a través de una cuestación popular. Él mismo iba a visitar a Quienes creía que le podían ayudar. Una tarde se presentó en casa de la viuda Boucicaut, propietaria de los grandes almacenes Bon Marché. La criada que le abrió la puerta le comunicó que la señora no recibía a nadie. Pasteur insistió tanto, que la criada fue a avisar a la señora.

Cuando regresó, preguntó:
—¿Es usted el señor Pasteur, el de la rabia?
—El mismo.
—Pues entre usted, que la señora le recibirá.

Ante la señora Boucicaut, Pasteur explicó con entusiasmo su proyecto: un instituto en el que sabios de diversos países investigarían los secretos de la vida y la manera de combatir las enfermedades.
—Ya sé que parece una utopía, pero es necesario para la humanidad y eso, señora, requiere dinero. Cualquier suma con ia que usted pueda contribuir será bien recibida por pequeña que sea.

La señora Boucicaut sonrió, se dirigió a una cómoda y de uno de sus cajones extrajo un libro de cheques. Firmó uno y lo entregó a Pasteur. Éste lo miró, se echó a llorar y abrazo a la señora Boucicaut, que también lloró emocionada. El cheque, de un millón de francos, fue el inicio del Instituto Pasteur, que se inauguró en 1888.

ANÉCDOTAS: 1-Luis Pasteur era creyente, y un día en que se hablaba de varios filósofos incrédulos de su tiempo, exclamó:—Los metafísicos elaboran teorías sobre teorías, todas fundadas sobre la nada, que desaparecen aventadas por una nueva moda. Sobre el origen y el fin de todas las cosas sabe mucho más mi madre, que es una pobre campesina, cuando está arrodillada en la iglesia de su pueblo.

Napoleón III le preguntó un día por qué no había explotado económicamente sus descubrimientos.
—Señor —contestó Pasteur—, hubiese sido un bochorno para la ciencia.

Al mismo Napoleón III le pidió ayuda para sus investigaciones.
—Se encuentran millones para la ópera. Majestad, y no se hallan cien mil francos para mi laboratorio.
Napoleón III sonrió y mandó llamar a uno de sus ministros:
—Éste es mi amigo Pasteur, que creo tiene toda la razón. Mirad de satisfacerle.
Y pudo disponerse del dinero.

2-Se hallaba un día Pasteur en Compiégne, en la corte de Napoleón III, cuando le pidieron que diese una charla sobre cuestiones científicas. En un punto de su disertación, dijo que le sería útil una gota de sangre, y la emperatriz Eugenia se pinchó un dedo para ofrecérsela. Pasteur, que no era hombre de mundo ni cortesano, se limitó a comentar:
—Hubiese preferido sangre de rana.

La emperatriz rió, y al día siguiente hizo llevar a la habitación del sabio un saco lleno de ranas vivas. Pasteur le dio las gracias, y cuando se fue de Compiégne las olvidó por completo. La habitación fue asignada aquella noche a una dama extranjera, a la cual despertó aquella noche un extraño ruido. Encendió una vela y lanzó un grito: la habitación estaba llena de ranas, que habían escapado del saco y saltaban, croando, por todas partes.

3- Cuando en 1870 estalló la guerra entre Francia y Prusia, Pasteur devolvió a los alemanes todas las distinciones y diplomas que le habían concedido. En la carta que les acompañaba decía: «La ciencia no tiene patria, pero los científicos sí.»

4A lo largo de su vida tuvo que sacrificar miles de animales para el bien de la humanidad, pero jamás pudo matarlos personalmente. Veía al animal en sus manos, empezaba a acariciarlo, a pedirle disculpas, a explicarle que aquello tenia que hacerlo por el bien de todos… y luego se ausentaba y dejaba que sus ayudantes hicieran el penoso trabajo.

5- Un célebre duelista parisino, Casagnac, creyendo que su honor había sido ofendido por Pasteur, le desafió enviándole a sus padrinos para que concertasen el duelo. Pasteur les recibió muy serio y les dijo:

—El señor Casagnac me desafía. Muy bien; pero como a mí me toca elegir las armas escojo estas salchichas. Una de ellas contiene triquina; la otra, no. Que el señor Casagnac se coma una y yo me comeré la otra. Ya ve que, a simple vista, no se distinguen.

El singular reto terminó con una sonrisa por parte de los padrinos de Casagnac, que se retiraron para reconciliar después a Pasteur con su apadrinado.

Concepto de Enfermedades Transmisibles

Fuente Consultada:
Enciclopedia Electrónica Encarta
Louis Pasteur Microsoft® Student 2009 y Wikipedia
Historia de la Historia Carlos Fisa Edit. Planeta

Usos de la Energía Nuclear Que es la energia nuclear? Conceptos Atucha

DESCRIPCIÓN DEL USO DE LA ENERGIA NUCLEAR

Los fundamentos de la física atómica

Historia de la Energia
Nuclear
Efectos De Una
Explosión Nuclear
Funcionamiento
De Una Central Nuclear

USOS DE LA ENERGÍA NUCLEAR –  PRINCIPIO FÍSICO DE SU GENERACIÓN

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energía empleada en el mundo. La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables. La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.

Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas. Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.

LA ENERGÍA ATÓMICA

Radiactividad natural: Descubierta accidentalmente por Henri Becquerel, en 1896, y estudiada en profundidad por Pierre y Marie Curie (fig. izquierda), a quienes se debe el nombre, la radiactividad natural es el fenómeno según el cual determinados materiales, como, por ejemplo, las sales de uranio, emiten radiaciones espontáneamente.

Las radiaciones emitidas son de tres tipos que se denominan alfa, beta y gamma, y tienen las siguientes características:

Las radiaciones alfa son poco penetrantes, ya que son detenidas por una hoja de papel y se desvían en presencia de campos magnéticos y eléctricos intensos. Están formadas por partículas cuya masa es de 4 u y cuya carga, positiva, es igual a dos veces la carga del electrón.

Las radiaciones beta son más penetrantes que las radiaciones alfa, aunque son detenidas por una lámina metálica. En realidad consisten en un flujo de electrones.

Las radiaciones gamma son muy penetrantes para detenerlas se precisa una pared gruesa de plomo o cemento. Son radiaciones electromagnéticas de alta frecuencia y, por lo tanto, muy energéticas.


Los rayos alfa buscan el polo negativo y los beta el positivo, pues cargas opuestas se atraen

Fuerzas nucleares

Como ya sabes, entre cargas eléctricas del mismo signo existen fuerzas eléctricas de repulsión. Si esto es así, ¿cómo es posible que los protones permanezcan unidos en un volumen tan reducido como el que tiene el núcleo?

Los protones y los neutrones se mantienen unidos en los núcleos debido a la acción de otro tipo de fuerzas distinto de las fuerzas eléctricas y de las fuerzas gravitatorias. Estas fuerzas, a las que llamaremos fuerzas nucleares, son de atracción y mucho más intensas que las fuerzas eléctricas.

Las fuerzas nucleares son de corto alcance, ya que se anulan cuando las distancias son superiores a unos pocos femtómetros (1 femtómetro =metros). A partir de esta distancia predominarán las fuerzas eléctricas, que tenderán a separar a los protones.

Estabilidad nuclear

Según la proporción entre protones y neutrones de un núcleo, éste es estable o no. Actualmente se conocen más de 300 núcleos estables. La radiactividad tiene su origen en la estabilidad nuclear. Si el núcleo es estable, el elemento no es radiactivo; pero cuando la relación entre los componentes del núcleo no es la adecuada, éste emite partículas y radiaciones electromagnéticas hasta alcanzar la estabilidad.
Se llaman isótopos radiactivos o radioisótopos todos aquellos isótopos que emiten radiaciones. Muchos elementos químicos tienen isótopos radiactivos cuyos núcleos emiten radiaciones y partículas de forma espontánea, a la vez que se transforman en núcleos de otros elementos. Así, por ejemplo, uno de los isótopos del carbono, el carbono- 14, es radiactivo y se transforma, espontáneamente, en un núcleo de nitrógeno.

Es posible conseguir que un núcleo estable se transforme en un radioisótopo. Si a un núcleo estable llega una partícula con suficiente energía, el núcleo puede desestabilizarse y volverse radiactivo para recuperar la estabilidad. Cuando esto sucede, se habla de radiactividad artificial, en oposición a la radiactividad espontánea o radiactividad natural.

Período de semidesintegración

Toda desintegración natural es un proceso aleatorio, es decir, no se puede predecir exactamente cuándo un núcleo determinado va a desintegrarse. Ahora bien, es posible calcular la probabilidad de que un núcleo se desintegre en un tiempo determinado. Con este fin se asocia a cada sustancia radiactiva una magnitud característica llamada período de semidesintegración.

El período de semidesintegración, de una sustancia radiactiva es el tiempo necesario para que se desintegre la mitad de los núcleos presentes en una muestra de dicha sustancia. Es decir, si tenemos una masa m de una sustancia y al cabo de 14 días tenemos la mitad (m/2) de esa sustancia (la otra mitad se ha desintegrado), diremos que su período de semidesintegración es de 14 días.

El período de semidesintegración varía para las distintas sustancias radiactivas desde millones de años a fracciones de segundo Sin embargo, cualquier sustancia radiactiva evoluciona en el tiempo ajustándose a una curva como la que se representa en la figura siguiente:

Curva de desintergración radiactiva

Períodos de semidesintegración de algunos isótopos

Como el período de desintegración del Radio 223 es de 8 días, tendrán que pasar unos 24 días para que la radioactividad de la muestra de este isótopo se reduzca a la octava parte (1/8)

Energía de enlace nuclear

Para calcular la masa de un cierto núcleo se multiplicará el número de protones que contiene por la masa de un protón, se multiplicará el número de neutrones por la masa de un neutrón y se sumarán ambas cantidades.

El núcleo de Li contiene tres protones y tres neutrones. La masa de un neutrón es de 1,6748 . 10-27 kg y la masa de un protón es de 1,6725 . 10-27 kg. En consecuencia, cabría esperar que la masa de este núcleo fuera de 10,0419 . 10-27 kg. Sin embargo, la masa de un núcleo de litio, 9,9846 10-27kg., es menor que la calculada sumando las masas de los tres protones y los tres neutrones que lo constituyen. El defecto de masa es de 0,0573 . 10-27 kg.

Defecto de masa en el núcleo de Litio

Este hecho se repite para todos los núcleos atómicos. La masa de un núcleo atómico es menor que la que se obtiene cuando se suman las masas de los protones y los neutrones que lo constituyen. La diferencia entre ambos valores recibe el nombre de defecto de masa.

El defecto de masa se produce porque parte de la masa de los protones y neutrones se transforma en energía cuando dichas partículas se unen para formar un núcleo atómico.

A partir de este hecho se define una nueva magnitud, la energía total de enlace nuclear, que es la energía que se desprende en la formación de un núcleo a partir de los nucleones que lo forman. Para el núcleo de litio, dicha energía es de 32 MeV. (nota 1 electronvoltio (eV) es la energía cinética que adquiere un electrón al someterse a una diferecia de potencial de 1 voltio. Dicha energía es de 1.6 . 10-19 Julio. Un MeV equivale a un millón de eV)

Los procesos en los que se modifican los núcleos de los átomos reciben el nombre de reacciones nucleares. En las reacciones nucleares, pequeñas cantidades de masa se transforman en grandes cantidades de energía, de acuerdo con la equivalencia establecida por Einstein.
E = m.c2

donde E es la energía desprendida, m es el defecto de masa y e es la velocidad de propagación de la luz en el vacío. Debido al elevado valor de e, a partir de una pequeña cantidad de materia es posible obtener una enorme cantidad de energía

Albert Einstein (1879-1955)

La fisión nuclear:

Determinados núcleos pesados, como, por ejemplo, el núcleo de uranio-235, se rompen en dos núcleos intermedios cuando se bombardean con neutrones. En este proceso, conocido como fisión nuclear, también se emiten otras partículas, además de radiación y una gran cantidad de energía.

De la fisión de un núcleo de uranio-235 se obtiene un átomo de bario-142, un átomo de criptón-91, 3 neutrones y una energía de 210 MeV que se desprende en forma de calor. La ecuación que describe el proceso es la siguiente:

235U + 1 neutrón —-> 142Ba + 91Kr + 3 neutrones + 210 MeV

La masa del núcleo de uranio-235 sumada con la masa del neutrón es ligeramente superior a la suma de las masas del núcleo de bario- 142, el núcleo de criptón-91 y los tres neutrones. Este pequeño defecto de masa se ha transformado en energía.

Los neutrones que se obtienen en la fisión de un núcleo de uranio-235 pueden utilizarse para bombardear otros núcleos de este isótopo y provocar nuevas fisiones que a su vez producirán nuevos neutrones, y así sucesivamente. Se origina de este modo una reacción en cadena mediante la cual, en un tiempo muy breve, se consigue la fisión de un gran número de núcleos y se libera una enorme cantidad de radiación y energía.

Reacción en cadena

 

La fusión nuclear

Una reacción de fusión nuclear es un proceso según el cual se unen núcleos ligeros o intermedios para formar núcleos más pesados, obteniéndose energía.

La fusión de un núcleo de deuterio, 2H, con un núcleo de tritio, 3H, da lugar a la formación de un núcleo de helio-4, 4He, además de un neutrón y una energía dc 17,6 MeV, que se desprende en forma de calor. Esta es una de las reacciones mediante las que el Sol produce energia. La ecuación que describe el proceso es la siguiente:

2H + 3H —-> 4He+ 1 neutrón +  17,6 MeV

Las centrales nucleares

La generación de electricidad es el empleo más importante de la energía liberada en una fisión nuclear. Para ello es necesario controlar la reacción de fisión en cadena; hace falta un sistema que impida que el número de fisiones por unidad de tiempo sobrepase ciertos límites. Esto se logra mediante el reactor nuclear Un reactor nuclear consiste básicamente en un recipiente en cuyo interior se encuentra el combustible nuclear (uranio o plutonio). Dicho combustible se suele introducir en forma de pastillas encapsuladas en una serie de vainas metálicas ,rodeadas por un material moderador, que forman el interior del reactor. Para el control de la reacción existen unas barras deslizantes, compuestas de un material capaz de absorber neutrones (boro o grafito).

Según se introduzcan más o menos barras de control en el interior del reactor, el número de neutrones absorbidos será mayor o menor, de este modo se puede controlar el número de fisiones que ocurren por unidad de tiempo. Si las barras se introducen totalmente, la reacción de fisión se detiene. Todo el conjunto del reactor se halla encerrado por el blindaje biológico, que es una envoltura de metal y hormigón cuya finalidad es impedir el paso de la radiación o gases contaminantes o radiactivos al medio ambiente.

La energía liberada por la fisión del combustible se manifiesta en forma de calor, que se extrae mediante un refrigerante que suele ser agua y que, a causa del calor recibido, se convierte en vapor a alta presión. El vapor así producido es utilizado para mover turbinas que están acopladas a los generadores eléctricos, posteriormente es enfriado y forzado a circular nuevamente dentro del reactor mediante bombas.

Cuando el combustible empleado es el uranio, puede presentarse en dos variedades: uranio natural o uranio enriquecido. El uranio natural contiene una pequeña proporción de átomos de uranio-235, que es el único que puede fisionar en el reactor. Por ello es necesario mejorar sustancialmente la eficiencia del reactor, sobre todo en lo que hace a la absorción indeseada de neutrones, esto encarece la estructura del reactor pero generalmente se compensa con el bajo costo del uranio natural. Por el contrario, el uranio enriquecido presenta una proporción mucho más alta de átomos de uranio-235, que se logra mediante un costoso proceso de refinamiento químico.
El uranio-235 va desapareciendo del combustible debido a las fisiones; después de cierto tiempo de funcionamiento del reactor es necesario recambiar el combustible. Esta operación se logra sacando algunas de las vainas que contienen el combustible y reemplazándolas por otras con combustible nuevo.

La generación de electricidad mediante reactores de fisión nuclear presenta grandes ventajas pero también serios inconvenientes. Entre las ventajas, las más importantes son que no producen contaminación directa de la atmósfera dado que no hay emisión de gases de combustión y que no dependen del suministro de combustibles fósiles que eventualmente han de agotarse. Los inconvenientes tienen que ver con el tipo de residuos que produce su operación, que consisten en material radiactivo (cuya peligrosidad persiste durante muchos miles de años), por esta razón es muy difícil su tratamiento. Además, hay que destacar las consecuencias extremadamente graves que tienen para las personas y el medio ambiente los eventuales accidentes que pueden ocurrir, y han ocurrido, en las centrales nucleares. Estas características compiten firmemente entre sí y hacen que el empleo de las centrales nucleares tenga tantos fervientes defensores como opositores.

Esquema reactor nuclear

La fusión nuclear se presenta como una fuente energética alternativa con muchos menos inconvenientes que la fisión y tantas o más ventajas. Actualmente, la construcción de una central nuclear en base a la fusión se presenta como un serio desafío tecnológico. La fusión se ha logrado en el laboratorio en condiciones muy especiales que no pueden ser llevadas a la escala necesaria para construir una central nuclear que sea económicamente rentable, es decir, que entregue más energía que la que consume y lo haga a un costo que compita con otros mecanismos de generación.

El problema fundamental radica en que la única forma conocida de lograr fusión es comprimir un gas altamente recalentado, a temperaturas superiores a los millones de grados. Este proceso se logra mediante dispositivos llamados botellas magnéticas.

Recientemente, a principios de 1989, dos científicos reportaron haber descubierto un mecanismo mediante el cual se podía lograr la fusión nuclear a temperatura ambiente. El anuncio revolucionó a la comunidad científica internacional por las espectaculares consecuencias que esto tendría y se denominó fusión fría al fenómeno. Lamentablemente, pese a que innumerables grupos de investigadores de todo el mundo trataron de repetir el proceso, ninguno logró resultados positivos y actualmente se sospecha que los experimentos originales estuvieran mal hechos.

La datación arqueológica

La datación de una muestra arqueológica es el procedimiento por el cual se determina su antigüedad. El más conocido es el que emplea el isótopo carbono-14 y que permite determinar la edad de restos fósiles o piezas fabricadas por el hombre de hasta 50.000 años de antigüedad.
El carbono está presente en la atmósfera terrestre, formando dióxido de carbono, en tres variedades isotópicas: el carbono-12, -13 y -14. El carbono-12 y -13 son estables, sin embargo el segundo es muy raro: tan sólo 1 de cada 100 átomos de carbono es carbono-13. En cambio, el carbono-14 es radiactivo con un período de semidesintegración de 5700 años.

Al desintegrarse, el carbono-14 se transforma en nitrógeno-14 y emite radiación Beta y debería desaparecer paulatinamente de la atmósfera. Sin embargo, si bien se lo encuentra en proporción escasísima, hay evidencia de que ésta ha permanecido casi inalterada por muchas decenas de miles de años. Esto es debido a que también existe un mecanismo por el cual se forma carbono-14 a partir del nitrógeno-14. Este hecho tiene lugar en las capas más altas de la atmósfera y consiste en la transmutación del nitrógeno-14 en carbono-14 producida por la radiación cósmica. El carbono-14 así formado se combina con el oxígeno para dar dióxido de carbono y es transportado a las capas más bajas de la atmósfera por las corrientes de aire. Estos dos mecanismos, el de desintegración y el de creación, han llegado a un equilibrio: la cantidad de carbono-14 que se desintegra durante cierto tiempo es igual a la que se crea en ese tiempo. De tal modo la abundancia de carbono-14 en la atmósfera permanece constante.

Como bien sabes, durante el proceso de fotosíntesis las plantas toman dióxido de carbono de la atmósfera y asimilan el carbono a su organismo. Por este motivo, una parte del carbono que hay en las plantas será carbono-14. Cuando la planta muere, el carbono-14 de su organismo comienza a desaparecer lenta pero inevitablemente, debido a su desintegración.

El resultado de este complicado mecanismo es: ¡un fósil vegetal tiene incorporado su propio reloj! Para saber el tiempo que ha trascurrido desde su muerte bastará con medir la abundancia de carbono-14 que hay en él y que será tanto menor cuanto más tiempo haya transcurrido. Los físicos han podido establecer cuál es la ley que sigue esta disminución y confeccionaron tablas de la abundancia en función del tiempo. Por lo tanto, una vez conocida esa abundancia bastará con comparar el valor medido con esa tabla para saber la edad del fósil.

Como ya te imaginarás, este fenómeno que afecta el carbono que hay en las plantas también afecta a los animales pues, en algún paso de la cadena alimentada, ellos se nutren de las plantas. También afecta la composición del suelo, pues en la mayor parte de los casos las plantas al morir se integran a él. También a los utensilios y objetos creados por los hombres primitivos, como las vasijas de barro. Por estas razones, este método de datación sirve para analizar una variedad muy grande de muestras. Debemos decir, sin embargo, que falla cuando se trata de determinar edades de más de 50.000 años, en cuyo caso se emplean otros métodos.

Utilización en medicina y otras áreas
Aprovechando la acción destructiva de las radiaciones sobre la materia, los radioisótopos se emplean en medicina en el tratamiento contra el cáncer, radiando con cobalto-60 los tumores que se quieren eliminar .También se emplean en la esterilización de material médico y quirúrgico.

 Los radioisótopos pueden introducirse en un organismo vivo o en cualquier otro material y puede seguirse su trayectoria a través de él. Por ello se emplean como trazadores o marcadores en investigaciones médicas, químicas, industriales, etc. Por ejemplo, el isótopo yodo -131 se utiliza en medicina para diagnosticar enfermedades de la tiroides. En química y biología, los isótopos radiactivos se utilizan para realizar estudios sobre velocidad y mecanismo de reacciones. En la industria, se emplean para localizar fugas en el transporte de fluidos, por ejemplo, en un oleoducto.

Desventajas del uso de radioisótopos
En contrapartida a su utilidad, el manejo de materiales radiactivos plantea problemas de difícil resolución. Entre ellos se destacan la eliminación de los residuos radiactivos que se producen y el control de la seguridad de las personas encargadas de su manipulación y de las comunidades próximas a las instalaciones nucleares. De hecho, un accidente nuclear de la magnitud del ocurrido en la central de Chernobil puede haber afectado, según algunas estimaciones, la salud de más de medio millón de personas, sin contar las enormes pérdidas materiales que ha originado.
(VER DESCRIPCIÓN DEL PROCESO DE LA FISIÓN DEL URANIO)

Los beneficios de la energía nuclear
La energía nuclear es cuestionada debido a los daños que puede causar al ambiente y a los seres vivos si no existe un control estricto de los reactores nucleares y de los desechos radiactivos, y por su utilización en la fabricación de armamento altamente destructivo. Sin embargo, la energía nuclear puede tener múltiples usos beneficiosos para la humanidad, no solo en la generación de energía eléctrica —una fuente de energía menos contaminante que el petróleo o el carbón—. sino también por su aplicación en otras áreas de la actividad científica y productiva. Entre ellas:

1 | Agricultura y alimentación
a) Control de plagas. En la llamada técnica de los insectos estériles se suministran altas emisiones de radiación para esterilizar insectos machos en laboratorio y que no dejen descendencia al aparearse. De este modo es posible controlar su población sin utilizar productos químicos nocivos.

b) Mutaciones. La irradiación aplicada a semillas permite cambiar la información genética de ciertas variedades de vegetales para obtener nuevas variedades con características particulares.

c) Conservación de alimentos. Las radiaciones son utilizadas para eliminar microorganismos patógenos presentes en los alimentos y aumentar, de este modo, su período de conservación.

2 | Hidrología
Mediante técnicas nucleares, es posible desarrollar estudios sobre los recursos hídricos. Por ejemplo, caracterizar y medir corrientes de aguas, fugas en embalses, identificar el origen de las aguas subterráneas, etcétera.

3 | Medicina
Se utilizan radiaciones y radioisótopos como agentes terapéuticos y de diagnóstico. En el diagnóstico, se utilizan fármacos radiactivos para estudios de tiroides, hígado, riñon, para mediciones de hormonas, enzimas, etcétera. En terapia médica se pueden combatir ciertos tipos de cáncer con resultados exitosos, especialmente cuando se detectan tempranamente.

4 | Medio ambiente
Se utilizan técnicas nucleares para la detección y análisis de diversos contaminantes del medio ambiente.

5 | Industria e investigación
a) Trazadores. Se elaboran sustancias radiactivas que son introducidas en un determinado proceso y, luego, se detecta la trayectoria de la sustancia por su emisión radiactiva. En el ámbito de la Biología, la introducción de compuestos radiactivos marcados ha permitido observar las actividades biológicas hasta en sus más mínimos detalles.

b) Imágenes. Es posible obtener imágenes de piezas utilizando radiografías que reciben el nombre de gammagrafía y neutrografía. Por ejemplo, se puede comprobar la calidad en piezas cerámicas, detectar la humedad en materiales de construcción, etcétera.

a) Datación. Se emplean técnicas isotópicas para determinar la edad en formaciones geológicas y arqueológicas. Por ejemplo, se utiliza la técnica de carbono-14, para determinar la edad de fósiles.

CRONOLOGÍA

1938 — Otto Hahn, Lise Meitner y Fritz Strassman descubren en Alemania la fisión nuclear del uranio.

1942 — Primera reacción nuclear en cadena en un laboratorio de Chicago dirigido por Enrico Fermi.

1945 — El bombardero Enola Gay lanza la primera bomba atómica de fisión nuclear sobre la ciudad japonesa de Hiroshima. Poco después, los Estados Unidos lanzan la segunda sobre Nagasaki.

1949 — La Unión Soviética realiza su primera prueba nuclear en Kazajstán.

1952 — Estados Unidos hace explotar su primera bomba de fusión nuclear en el atolón de Bikini, en el Océano Pacífico. Los británicos realizan su primera prueba en las islas australianas de Monte Bello.

1956 — Gran Bretaña pone en marcha su primera central nuclear comercial, en Sellafield, con una potencia de 50 Mw. Francia pone en marcha su primera central nuclear experimental, en Marcoule, en el departamento de Chusclan, en el Gard, con una potencia de 7 Mw.

1959 — Francia pone en marcha dos nuevos reactores nucleares en Chusclan, de 40 Mw cada una.

1960 — Francia realiza su primer ensayo nuclear en el desierto del Sahara.

1968 — España construye su primera central nuclear de las nueve que posee actualmente, se llama José Cabrera y se encuentra en el término municipal de Almonacid de Zorita, en Guadalajara, junto al río Tajo, con una potencia de 160 Mw.

Fuente Consultada: Físico Químico de Pilar Escudero y Otros

Aplicaciones Energia Atomica despues de la Guerra Mundial Historia

Historia Evolución Tecnológica Post Guerra Mundial: La Energía Atómica

Aunque fue la culminación de varios años de intensas investigaciones, la explosión de las primeras bombas atómicas constituyó para el mundo entero un acontecimiento totalmente inesperado. De inmediato se hizo evidente, sin embargo, que era posible seguir dos líneas de desarrollo.

Una de ellas era puramente militar: cada una de las grandes potencias tenía que demostrar su capacidad de construir independientemente la nueva arma, si quería mantener su credibilidad militar. En aquel momento, la única forma de defensa parecía ser la capacidad demostrable de recurrir a represalias del mismo tipo. La segunda línea de desarrollo era la posibilidad de utilizar esta fuente totalmente nueva de energía no de manera descontrolada, como en la bomba, sino mediante el desarrollo de tecnologías completamente innovadoras que la controlaran y la pusieran al servicio de la industria.

Aplicaciones Energia Atomica

De hecho, los dos aspectos estaban estrechamente interrelacionados, como lo demuestran los acontecimientos en el Reino Unido. En ese país, hasta 1951, el programa de energía atómica había estado orientado en gran medida a los aspectos militares, que imponían la necesidad de producir plutonio.

A partir del mencionado año, las dos líneas comenzaron a acercarse dado que las pilas atómicas diseñadas para producir plutonio también se podían utilizar para generar energía eléctrica. Una de ellas fue la denominada Pippa, que producía plutonio y generaba electricidad como subproducto. Esta pila fue la base de energía de Calder Hall, la primera central nuclear importante del mundo, que se inauguró en 1956.

Sorprendentemente, teniendo en cuenta la enorme cantidad de dinero y trabajo que habían dedicado al proyecto Manhattan, los norteamericanos demostraron escaso interés por el desarrollo de la energía atómica como fuente controlada de electricidad en los primeros años de la posguerra. Sólo la marina norteamericana se dedicó a estudiar seriamente el tema, al reconocer su enorme potencial para mantener a las naves indefinidamente en alta mar, sin necesidad de repostar.

En 1955 se construyó el submarino Nautilus, primero de una larga serie de naves subacuáticas propulsadas por energía atómica. En 1959, los soviéticos produjeron el rompehielos nuclear Lenin. Sin embargo, tan sólo en 1957 se inauguró la primera central nuclear de Estados Unidos, en Shippingport, Pennsylvania.

También en este caso, los soviéticos se habían colocado a la cabeza, con la entrada en funcionamiento en 1954, en Obninsk (cerca de Moscú), de una pequeña central nuclear que utilizaba uranio como combustible y grafito como moderador. El calor generado en el núcleo del reactor pasaba en primer lugar a un sistema de circuito cerrado de agua a alta presión y luego era transferido a un sistema independiente de agua, que generaba el vapor necesario para poner en marcha las turbinas.

Un sistema en cierto modo similar de refrigeración por agua fue desarrollado por Estados Unidos para el reactor de Shippingport y por Canadá para los reactores Candu, construidos en los años 50.

La refrigeración por agua tiene la ventaja de ser sencilla y barata, pero tiene también sus inconvenientes. En caso de emergencia (por ejemplo, demasiado calor generado en el núcleo), el agua se convertiría rápidamente en vapor y dejaría de cumplir con su vital función de refrigeración. Por este motivo, Francia y el Reino Unido se inclinaron por los reactores refrigerados con gas, ya que éste no cambia de estado por mucho que se caliente. El primer reactor del Reino Unido, el de Calder Hall, tenía un sistema de refrigeración a gas.

Mientras tanto, en los años 50, se estaba desarrollando un nuevo tipo de reactor que utilizaba como combustible una combinación de uranio-238 y plutonio-239. Los neutrones generados por el plutonio interactúan con el uranio y producen más plutonio; de esta forma se consigue varias veces más energía que en los reactores convencionales con una misma cantidad de uranio.

El primer reactor de este tipo fue inaugurado en la localidad escocesa de Dounreay en 1959, y la central nuclear Phénix, de características similares, entró en funcionamiento poco después en Marcoule, Francia. Al finalizar la década de los años 40, se había dedicado considerable atención a la posibilidad de utilizar otro tipo distinto de refrigerante para los reactores. Se trataba del metal sodio, que funde a 98 °C, ligeramente por debajo del punto de ebullición del agua y muy por debajo de la temperatura normal de operación de los reactores.

Esquema de un Reactor Nuclear

Desde el punto de vista termodinámico, viene a constituir un medio interesante de transferencia del calor, pero presenta varios inconvenientes. Es un elemento muy reactivo químicamente, capaz de provocar corrosión en la mayoría de los materiales con los que entra en contacto. Más concretamente, reacciona de forma explosiva con el agua. Precisamente esta propiedad lo descartó como refrigerante para los reactores submarinos (tema que interesaba a la marina norteamericana), aunque los Laboratorios Argonne, cerca de Chicago, y General Electric, en Schenectady, habían realizado varios estudios.

La Conferencia atómica de 1955
Al final de la Segunda Guerra Mundial, Estados Unidos era la única nación que poseía la bomba atómica. Durante casi una década trató de mantener d «secreto» y, por medio de unas leyes draconianas y una reserva sin precedentes en tiempos de paz, intentó evitar que se propagaran los conocimientos de la tecnología nuclear. Sin embargo, en 1949 la Unión Soviética hizo estallar su primera bomba atómica.

Cuando Eisenhower ocupó el cargo de presidente de los Estados Unidos en 1952, al comprender que era inevitable que se propagaran los conocimientos nucleares, decidió adoptar dos iniciativas con el fin de internacionalizar la energía atómica y garantizar que la difusión de esta tecnología fuera aplicada con fines pacíficos y no militares.

En su famosa alocución titulada «Átomos para la paz», pronunciada ante la Asamblea General de las Naciones Unidas en 1953, propuso la fundación de la Agencia Internacional de Energía Atómica con el propósito de controlar la aplicación pacífica de dicha tecnología. La segunda iniciativa de los Estados Unidos llevó a la Conferencia Internacional sobre Usos Pacíficos de la Energía Atómica, celebrada en el Palais des Nations, en Ginebra, entre el 8 y el 20 de agosto de 1955.

En la conferencia fueron presentadas unas 450 ponencias científicas. Setenta y tres Estados y ocho agencias especializadas de las Naciones Unidas enviaron a sus respectivas delegaciones, las cuales estaban formadas por un total de 1.428 delegados, aparte de los 350 observadores procedentes en su mayor parte de universidades y empresas comerciales.

El extraordinario éxito de la conferencia, a la que asistieron 905 periodistas y en la que participaron numerosos expertos en ciencia nuclear, se debió a su carácter técnico más que político. Los científicos procedentes de diversos países, los cuales habían estado trabajando aisladamente, pudieron comprobar que básicamente habían llegado a las mismas conclusiones.

La ciencia y la tecnología han hecho grandes progresos desde 1955 y muchos países han comprobado que las ilimitadas perspectivas de una tecnología nuclear pacífica no eran tan benéficas como habían supuesto en un principio. Pero el intercambio de información entre Oriente y Occidente, el Norte y el Sur, contribuyó a aliviar las tensiones internacionales y sentó las bases para la creación de la Agencia Internacional de Energía Atómica, la cual está funcionando con éxito desde 1957, fecha de su fundación.

Concepto Físico de Energia Tipos y Ejemplos Trabajo Definición

Explicación Concepto de Energía

Si preguntamos con impaciencia qué es la energía no esperemos una respuesta rápida. La energía no es fácil de definir -entre otras cosas-por que no siempre podemos percibirla por medio de los sentidos.

Si nos piden que describamos una naranja, la podemos apoyar sobre un plato y mirarla para después olería, tocarla y probarla; en cambio, sería imposible colocar un poco de energía en el plato para arremeter con nuestros sentidos. Si bien la energía “no se ve”, puede percibirse por sus efectos.

Por ejemplo, se manifiesta como energía del movimiento en un cuerpo que cae, en forma de luz y calor en el fuego, como energía química en una pila que hace funcionar una radio, en el flujo de la corriente eléctrica que mantiene en servicio a los electrodomésticos, a escala nuclear en una gigantesca explosión y, aunque parezca increíble, “en la naranja que apoyamos sobre el plato” almacenada como energía de reserva.

Para empezar podríamos definir al concepto de energía, como la capacidad de realizar trabajo. Una persona que trabaja necesita disponer de una reserva de energía que, en este caso, procede de los alimentos que ingiere. La comida es una especie de combustible que se quema dentro de nuestro cuerpo, y una parte de la energía que se libera en el proceso de combustión es utilizada para mantener su temperatura, en tanto que otra es consumida por los músculos al moverse, lo que, en definitiva, constituye un trabajo mecánico.

En física, se realiza un trabajo cuando se traslada un peso a una cierta distancia. Su magnitud es el resultado del producto de la fuerza aplicada por la distancia recorrida, siempre que ambas tengan la misma dirección. Si se levanta un ladrillo de 1 kg. a 1 metro de altura, se realiza un trabajo para vencerla fuerza de la gravedad. La fuerza aplicada es de 1 kg. y, como se ejerce a lo largo de 1 metro, el trabajo realizado es 1 kilográmetro (1 kgm.).

Al realizar este trabajo, se comunica energía al ladrillo. La persona que lo levanta le transfiere parte de la energía procedente de los alimentos que previamente ha ingerido. La energía adquirida por el ladrillo está en la forma de energía potencial, o energía de posición. Si lo dejamos caer, la energía potencial se convierte en energía cinética (energía debida a su movimiento).

Al levantar el ladrillo, el hombre realiza un trabajo y le transfiere energía mecánica, que se convierte en energía potencial. El ladrillo ha adquirido mayor energía potencial, cuya magnitud está dada por el producto de la fuerza por la distancia (altura). Al dejar caer el ladrillo, la energía potencial que había adquirido anteriormente se convierte, ese momento, en energía cinética.

De hecho, energía y trabajo están íntimamente relacionados, aplicándose este último término al proceso de transformación entre dos tipos distintos de energía. La cantidad de trabajo realizado es igual a la cantidad de energía que el ladrillo adquiere. Si se levanta el ladrillo a una altura doble se realiza un trabajo también doble, y el ladrillo adquiere el doble de energía.

Un hecho tan simple como levantar un ladrillo y dejarlo caer es causa de que la energía sufra distintas transformaciones. En primer lugar, la energía química de las sustancias orgánicas complejas, contenidas en nuestros alimentos, se convierte, fisiológicamente, en energía calorífica.

Después, se transforma en energía mecánica (en nuestra mano), para convertirse, posteriormente, en la energía potencial adquirida por el ladrillo. Al dejarle caer, la energía potencial se transforma en energía cinética y, al chocar con el suelo, parte de esta energía cinética se convierte de nuevo en calor, y otra parte se transmite al aire como energía acústica.

Es posible seguir el curso de una cierta cantidad de energía en esta cadena de transformaciones, ligadas por la realización de un trabajo. La cadena puede ramificarse si, en una etapa determinada, la energía se transforma en otros el momento inicial que en cualquiera de las etapas seguidas en un determinado proceso. Este principio constituye la denominada ley de la conservación de la energía, que es uno de los principios fundamentales de la física.

La palabra energía deja de pertenecer exclusivamente al lenguaje común para ingresar al lenguaje científico en el año 1807. La propuesta nace del médico y físico inglés Thomas Young, profesor de Filosofía Natural, de la Royal Institution de Londres.Thomas YungEnergía, en griego significa trabajo y Young la empleó para describir muchos fenómenos que los físicos de la época denominaban fuerza viva y que en la actualidad denominamos energía cinética o energía del movimiento.

La definición de energía dada por Young fue ignorada durante muchos años. Según él, energía era la capacidad para realizar un trabajo. Generalizando, hoy en día trabajo es la “aplicación de un esfuerzo para realizar una tarea”.

Una grúa que levanta un contenedor realiza un trabajo. Ocurre lo mismo cuando una pelota rueda de un punto a otro o desplazamos una lapicera para dibujar una palabra en el papel. Tanto la grúa como la pelota y la lapicera deben sufrir la aplicación de una “fuerza”, por esto la física define al trabajo como “la aplicación de una fuerza a través de una distancia”. Dicho en otras palabras, un trabajo es la fuerza  que levanta, empuja o tira de un objeto a través de un número variable de metros.

La cantidad total de energía en el universo fue y será siempre la misma. Existen otros tipos de energía de especial importancia: energía luminosa, energía eléctrica y energía magnética, que pueden también transformarse en las otras modalidades de energía anteriormente descritas. Por ejemplo, es frecuente que se transformen entre sí las energías eléctrica, calorífica y luminosa; estas dos últimas se obtienen fácilmente de la primera.

La energía eléctrica es la que poseen los electrones cuando circulan por un circuito eléctrico sometido a una “presión eléctrica”; viene expresada por el producto de tres factores: la tensión, la intensidad y el tiempo. En las lámparas, la energía eléctrica se transforma en luz y calor.

Aunque su función primordial es la de proporcionar luz, las lámparas no son muy eficientes, y sus filamentos han de ponerse al rojo para poder emitirla. En una lámpara común, sólo un 5 % de la energía eléctrica se convierte en energía luminosa. El 95 % se transforma en calor. Los electrones, al fluir a través del circuito eléctrico, transfieren su energía al filamento de la lámpara, de igual forma que el hombre transmite energía al ladrillo al levantarlo o empujarlo.

Aunque la energía puede existir en muchas formas, tedas ellas son equivalentes. En el sistema cegesimal (basado en el centímetro, en el grano y en el segundo), la unidad de energía es el “ergio” el que puede expresarse cualquier tipo de energía. Para que los números que se obtengan en las medidas sean sencillas se han introducido otras unidades de energía, más adecuadas.

SISTEMA CEGESIMAL SISTEMA BRITÁNICO
Energía mecánica ERGIO
Si levantamos una masa de 1 gramo a la altura de un centímetro, adquiere una energía de 981 ergios.
LIBRA PESO-PIE
Energía adquirida al levantar una libra peso, un pie.
1 Ib. wt. ft. = 1,36
X 10″ ergios
Energía calorífica CALORÍA
Si hacemos subir 1°C la temperatura de 1 gramo de agua, ésta adquiere una energía calorífica de 1 caloría.
1 caloría = 4,19X 107 ergios.
B.T.U. (UNIDAD TÉRMICA BRITÁNICA)
Cantidad de energía calorífica que adquiere una libra de agua cuando su temperatura se eleva 1° Farenheit .
1 b.t.u. = 1,055
X 107
Energía eléctrica JULIO
Un julio es la energía desarrollada por una corriente de un amperio, cuando fluye durante un segundo a través de una diferencia de potencial de 1 voltio.
1 julio = 107 ergios.
No existe equivalente.
Energía de
partículas atómicas
ELECTRÓN-VOLTIO
Es la energía adquirida por un electrón acelerado a través de una diferencia de potencial de 1 voltio.
1 eV = 1,6X I»”12 ergios.
No existe equivalente.

Los electrones propios del filamento absorben esta energía y pasan a un estado excitado, encontrándose entonces en una posición similar a la que tenía el ladrillo después de haberlo levantado. Los electrones excitados pasan, casi inmediatamente, al estado original, con la consiguiente emisión de un tipo especial de energía, que afecta la porción sensible de la retina del ojo.

El cerebro humano interpreta esta impresión como una sensación luminosa. El Sol es, prácticamente, la fuente de toda la energía recibida por la Tierra. Parte de dicha energía es luz visible, pero otras porciones son invisibles.

EL SOL

El aparentemente sólido sol es en realidad una bola gaseosa opaca de hidrógeno. Su núcleo interno está en constante estado de fusión con liberación de enormes cantidades de luz y calor. Esto se hace perceptible a partir del halo de un eclipse.

La energía electromagnética (que comprende la energía luminosa) transmitida por el Sol es absorbida por las plantas y transformada en energía química, pues éstas la utilizan para sintetizar sustancias orgánicas complejas. La energía química es la principal fuente de energía directamente aprovechable por el hombre, y sus alimentos y combustibles lo confirman claramente.

La hulla, por ejemplo, proviene de restos vegetales que absorbieron energía luminosa del Sol, hace millones de años, y que puede ser liberada al quemarse este carbón. Dentro de la física, la energía es una magnitud de gran importancia, por la razón de que no puede ser destruida.

Si para un determinado proceso realizamos un cómputo energético, la energía inicial es igual a la final. Por este motivo, la energía es una magnitud cuya medida resulta siempre útil. La aparición de esta magnitud en todas las ramas de la física refuerza su importancia. Es la única que interviene tanto en mecánica, como en óptica, termodinámica, acústica, electricidad, magnetismo, física nuclear, etc.

Muchas de las distinciones establecidas entre las diversas ramas de la física no están muy bien definidas precisamente porque la energía puede transformarse, al mismo tiempo, en dos o más modalidades. Un ciclista, al mover los pedales, está realizando un trabajo.

La fuerza que ejercen sus pies se transmite a las ruedas y las hace girar. La energía desarrollada por el ciclista se transforma en energía cinética, ya que tanto él como la bicicleta se mueven. La dínamo de la bicicleta convierte una pequeña fracción de la energía cinética en energía eléctrica, que se usa para calentar el filamento de una lámpara y hacer que ésta emita energía luminosa.

TIPOS DE ENERGÍA
La energía calórica encuentra su origen en cualquiera de las otras formas: si martillamos un clavo (energía mecánica), la cabeza del clavo se calienta; el Sol nos da su calor en el frío invierno y nos broncea en el verano (energía radiante); la corriente eléctrica y el gas natural (energía química) son capaces de proporcionarnos calor en las épocas de baja temperatura.

La energía lumínica nos es tan familiar que a veces no somos capaces de valorarla.

La energía química, es la que nos proporcionan los alimentos y los combustibles. Un dispositivo ingenioso proporciona energía eléctrica a expensas de una reacción química: la pila.

la energía eléctrica es un fenómeno de naturaleza parecida a la de los imanes y la que recibimos a diario desde la usina generadora. Se origina en una turbina que desarrolla energía mecánica a partir de la energía química que le proporciona el combustible.

La energía nuclear es la manifestación energética que el hombre ha descubierto más recientemente. Es también la más peligrosa porque aún no se la sabe controlar perfectamente y puede ser usada con fines no pacíficos. Esta energía se obtiene destruyendo el núcleo del átomo.

Si la operación es controlada, esa energía servirá para mover la turbina que fabrica electricidad ; si no se controla, se revivirán episodios tristes como el de Hiroshima y Nagasaki en la Segunda Guerra Mundial.

La energía mecánica la más familiar para todos, y no es más que la que se pone en juego en el movimiento del cuerpo de una maquinaria, el simple acto de martilla o golpear el parche de un tambor, el arrojar una piedra o batir un pote de crema. La física la clasifica en energía potencial y energía cinética.

La energía potencial es la que guardan come reserva los cuerpos en reposo. Cuando un niño de cuatro años ya lee y escribe todos dicen que el un “genio en potencia”; quieren decir que aún no es un genio, pero lleva en sí mismo cualidades “potenciales” que le permitirán serlo en el futuro.

En cambio la energía cinética (de kinema que en griego significa movimiento) es la energía que los cuerpos gastan al ponerse en movimiento. La energía cinética se diferencia de la potencial porque en aquélla influye un nuevo factor: la velocidad con la que el cuerpo se mueve. La humanidad todavía no tiene la última palabra en el tema energético. “Le llevó toda su existencia descubrirla y todavía no ha terminado de hacerlo”.

MASA Y ENERGÍA:

La materia misma es una fuente de energía. Una masa pequeñísima es equivalente a una gran cantidad de energía. Concretamente, un gramo es equivalente a 931.000.000.000.000.000.000 ergios No es fácil, sin embargo, transformar la masa en energía. Esto sólo puede realizarse en circunstancias especiales; por ejemplo, en un reactor nuclear. Los átomos de uranio, al desintegrarse, “pierden” una pequeña fracción de su masa, la cual se convierte en energía.

Si un átomo fuera un estadio de fútbol, su núcleo sería como una mosca en el centro del campo de juego. Pero cuando se divide un núcleo inestable como el del Uranio, la energía desprendida por unos pocos kilogramos de este metal es equivalente a la explosión de miles de toneladas de TNT. Esta reacción llamada fusión ocurre normalmente sin detenerse en el sol.

El hombre reproduce este fenómeno en las usinas nucleares y en las bombas atómicas. Las bombas H tienen un poder que ronda las cien kilotoneladas (1 kilotonelada es igual a 1000 toneladas de TNT).

E=m.c2

La conversión teórica de masa en energía conduce a cantidades asombrosas. Estos ejemplos representan el equivalente de un kilogramo de masa convertido en energía:

– una plancha eléctrica encendida un millón de años.
– un acondicionador de aire en marcha 300.000 años.
– una caldera doméstica encendida sin parar de 25.000 a 30.000 años.
– un automóvil que da 180.000 veces la vuelta al mundo.
– el mayor buque cisterna dando 400 veces la vuelta al mundo.

Un escape pequeño puede ser grandísimo…
Einstein explicó la cantidad de energía que se pierde al transformarse la masa en energía, con la ecuación:

E=m.c2

Esta fórmula ha iniciado la era atómica y ha aclarado el mecanismo del sol como fuente de energía solar. La fórmula encierra la afirmación de que la masa puede transformarse en energía y viceversa. “E” quiere decir energía; “M” significa masa y “C” representa la velocidad de la luz en el vacío, es decir 300.000 kilómetros por segundo.

Elevando “C” al cuadrado (multiplicando el valor indicado por sí mismo), resulta una cifra astronómica. Quiere decir que una pequeña cantidad de masa puede transformarse en una gigantesca cantidad de energía. Pensemos en una bomba atómica, o en el Sol, que perdiendo una cantidad insignificante de materia, ha podido irradiar energía durante tanto tiempo y estará en condiciones de hacerlo por miles de millones de años.

FUENTES DE ENERGÍA: Se denominan fuentes de energía o recursos energéticos todos aquellos componentes de la Naturaleza a partir de los cuales es posible obtener energía utilizable por el hombre. Casi todas las fuentes de energía proceden en última instancia del Sol. Esta energía solar, o bien se utiliza directamente, o bien da lugar a la formación del resto de los recursos energéticos

 Así, las plantas utilizan directamente la energía solar para producir sus alimentos, con lo que crecen y se desarrollan, originando a su vez nuevos recursos energéticos como el carbón, que procede de la fosilización de cantidades inmensas de plantas que han estado enterradas durante miles de años.

Las fuentes de energía se clasifican normalmente atendiendo al carácter de que se agoten al paso del tiempo o de que sean prácticamente inagotables. Así, se distinguen las energías renovables y las energías no renovables.

« Son energías renovables aquellas que existen en cantidades ilimitadas y, por tanto, no se agotan por mucho que se utilicen. Entre las energías renovables están la energía solar, la hidráulica, la eólica. la de la biomasa y la maremotriz.

» Son energías no renovables aquellas que existen en cantidades limitadas en la Naturaleza, de forma que se agotan a medida que se van utilizando. Entre las energías no renovables están la energía del petróleo, la del carbón, la del gas natural, la geotérmica y la nuclear.

Las fuentes de energía también pueden clasificarse atendiendo a la incidencia que tengan en la economía de un país en un momento determinado. Así se tienen las energías convencionales  y as energías no convencionales.

• Se llaman fuentes de energía convencionales aquellas que tienen una ¿reincidencia en el consumo energético de los países industrializados.

Entre las fuentes de energía convencionales se pueden citar todas las fuentes de energía no renovables y la energía hidráulica.

• Se llaman fuentes de energía no convencionales o energías alternativa aquellas que hoy día se encuentran en fase de estudio con el propósito de  sustituir o reforzar en un futuro a las fuentes de energía convencionales. Entre las fuentes de energía no convencionales se pueden citar la energía  solar, la eólica, la maremotriz, la geotérmica, la de la biomasa, etc.

Fuente Consultada:
Revista TECNIRAMA N°67
FÍSICA II Polimodal
FÍSICO-QUIMICA Secundaria Santillana

Las radiaciones de un nucleo atomico Tipos alfa, beta y gamma

LAS RADIACIONES DE UN NÚCLEO DE UN ÁTOMO

Átomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra “átomo” se empleaba para referirse a la parte de materia más pequeño que podía concebirse. Esa “partícula fundamental”, por emplear el término moderno para ese concepto, se consideraba indestructible.

De hecho, átomo significa en griego “no divisible”. El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.

Con la llegada de la ciencia experimental en los siglos XVI y XVII  los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos.

Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

Todos sabemos que el átomo constituye una especie de sistema planetario en miniatura; el núcleo equivale al Sol, y los electrones a los planetas. Una de las primeras preguntas que se nos pueden ocurrir a este respecto, es la siguiente: ¿cómo está hecho el núcleo, ese sol de un universo infinitamente pequeño?

Sabemos que el núcleo atómico se compone, fundamentalmente, de dos tipos de partículas materiales: los protones, cargados de electricidad positiva, y los neutrones, desprovistos de carga eléctrica. En cambio, poco es lo que se sabe acerca de la disposición y movimiento de estas partículas. A diferencia de lo que sucede con los electrones (los “planetas”), que giran alrededor del núcleo, no existe un modelo que ilustre de manera intuitiva cómo los protones y neutrones se mueven y disponen en el interior del mismo núcleo.

Sin embargo, los estudios y las experiencias de física nuclear han permitido obtener algunas conclusiones y datos significativos. Por ejemplo, el núcleo del átomo del hierro, contiene 26 protones (en amarillo en la ilustración) o, lo que es lo mismo, 26 partículas provistas de una carga elemental positiva.

Estas 26 cargas positivas pueden sostener, en torno al núcleo, otras tantas cargas de signo opuesto. Así, en el átomo neutro de hierro, 26 electrones —es decir 26 partículas provistas de una carga elemental negativa— giran alrededor del núcleo, en órbitas distintas. Y, precisamente, es el número de protones (llamado “número atómico”), igual en el átomo neutro al número de electrones, lo que hace que el hierro sea hierro, con todas las propiedades químicas que lo distinguen. Cada elemento químico, en consecuencia, tiene un número atómico propio.

Pero si las propiedades químicas de un átomo dependen, exclusivamente, del número atómico, otras propiedades no menos importantes dependen, además, del llamado “número de masa”. Se trata de propiedades que no pueden observarse a simple vista, pero que se revelan de modo muy espectacular en las “reacciones nucleares” (pensemos, por ejemplo, en la bomba atómica).

Ya hemos dicho que en el núcleo, además de los protones, se encuentran los neutrones, o partículas desprovistas de carga eléctrica, que pesan, aproximadamente, igual que los protones. Pues bien: la suma del número de protones y de neutrones da el “número de masa”. Los átomos de igual número atómico, pero de distinto “número de masa”, son llamados “isótopos”: tienen idénticas propiedades químicas (puesto que idéntico es el número atómico), pero distintas propiedades nucleares, porque distinto es el número de masa o, lo que es lo mismo, el número de neutrones.

Tal como aparecen en la naturaleza, casi todos los elementos son mezclas de isótopos diferentes: el hierro, por ejemplo, además de átomos de 26 protones y 30 neutrones (que se hallan en franca mayoría, ya que constituyen el 91,68% de su materia), contiene también átomos de 28, 31 y 32 neutrones. Éstos son, precisamente, los isótopos del hierro (cuyos protones continúan siendo 26), todos ellos estables, es decir, existentes en la naturaleza, sin ninguna tendencia a transformarse espontáneamente en otra cosa.

En cambio, un átomo de hierro que, junto a los 26 protones habituales tuviese en el núcleo 33 neutrones, ya no sería estable, es decir, tendería a transformarse. Lo mismo puede decirse de los átomos de hierro con 27 ó 26 neutrones.

Se trata de un hecho muy importante, cuya significación es la siguiente: para que en un núcleo con un determinado número de protones (26 en el caso del hierro) haya estabilidad, los electrones no deben superar una cantidad determinada (28, 30, 31 y 32, en el caso del hierro).

En otras palabras: del número de neutrones depende la estabilidad del núcleo. Y ahora podemos dar otro paso y preguntarnos qué es lo que mantiene a protones y neutrones en el núcleo. Salta a la vista que el problema es más complejo que el que presentan los electrones girando alrededor del núcleo: en este caso se trata, simplemente, de partículas cargadas negativamente (electrones), que, en virtud de las fuerzas electrostáticas, son atraídas por cargas positivas de ciertos elementos del núcleo (protones). En el interior del núcleo, en cambio, los neutrones, desprovistos de carga, y los protones, que la tienen positiva, deberían repelerse, si sólo actuaran las fuerzas electrostáticas.

Como no sucede así, forzosamente tenemos que pensar en fuerzas de otra naturaleza; y éstas, llamadas por los científicos “fuerzas nucleares”, son aún muy misteriosas. Parece que los protones y neutrones se atraen independientemente de su carga; es decir, un protón atrae indiferentemente a otro protón, o a un neutrón, y lo mismo puede decirse de los neutrones. En el caso, sin embargo, de dos protones, la fuerza electrostática de repulsión es más potente que la fuerza nuclear de atracción.

Debido al complejo juego de estas fuerzas, la estabilidad del núcleo depende de las relaciones entre el número de protones y de neutrones, tal como hemos explicado.

Cuando la relación protones-neutrones no asegura la estabilidad del núcleo, éste tiende a modificar la relación, emitiendo radiaciones alfa o beta, y transformándose espontáneamente en un núcleo estable.

En las radiaciones alfa, el núcleo emite las “partículas alfa”, constituidas por dos protones y dos neutrones.
En las radiaciones beta, el núcleo sólo emite electrones, que no existían previamente en su interior, sino que se producen simultáneamente con la emisión, cuando un neutrón del núcleo se transforma en protón para establecer el necesario equilibrio numérico entre neutrones y protones.

PARTÍCULA ALFA:

Determinadas combinaciones de protones y neutrones pueden llegar a formar un núcleo durante algún tiempo; pero el núcleo no es estable y el átomo es radiactivo. Esta clase de átomos intenta variar la proporción de protones y neutrones en el núcleo, para formar una combinación más estable, y entonces el núcleo emite una radiación. El átomo se trasforma en el átomo de un elemento distinto y se dice que se trasmutó.

Dos protones no pueden permanecer juntos, porque ambos tienen carga positiva (cargas del mismo signo se repelen). Los núcleos que tienen protones en exceso se estabilizan por trasmutación.


El núcleo de helio, con dos protones y dos neutrones, es la combinación de protones y
neutrones más estable que se conoce. Es la “partícula alfa”.

Por ejemplo, si un núcleo contiene demasiados protones y neutrones para ser estable, puede expulsar algunas de estas partículas y alcanzar una mayor estabilidad. Para ello emite dos protones y dos neutrones firmemente unidos (el núcleo, muy estable, del átomo de helio), formando una partícula única, que se conoce con el nombre de partícula alfa. La partícula alfa lleva, por consiguiente, dos cargas positivas y tiene un peso atómico igual a cuatro, mientras que el átomo que ha emitido esta partícula alfa disminuye su número atómico en dos unidades, y su peso atómico en cuatro unidades.

Por ejemplo, los átomos de radio que se encuentran en la naturaleza (número atómico 88, peso atómico 226) emiten partículas alfa, y entonces se- trasforman en radón, un gas radiactivo (número atómico 86, peso atómico 222)

El radón mismo se trasmuta emitiendo partículas alfa. Las partículas alfa, que se emiten durante la trasmutación de los átomos, se desplazan en línea recta a través del aire, y pierden su energía a medida que van entrando en colisión con las moléculas de aire, deteniéndose, generalmente, al cabo de unos cuantos centímetros.

Todas las partículas alfa, emitidas por un isótopo determinado, suelen recorrer la misma distancia en el aire, ya que tienen la misma energía cinética, la cual van perdiendo en los choques; basta, sin embargo, interponer en su camino una hoja de papel para detener una partícula alfa.

LA PARTÍCULA BETA
Si un núcleo contiene demasiados neutrones, para ser estable puede convertir alguno de ellos en un protón. En realidad, el protón y el neutrón son partículas muy similares. Para que un neutrón se trasforme en protón basta con que emita un electrón. El neutrón pierde, entonces, una carga negativa y se trasforma en un protón cargado positivamente:

El electrón es emitido por el núcleo con una gran velocidad; recibe el nombre de partícula beta.

El átomo conserva el mismo peso molecular después de la trasmutación, ya que la suma de protones y neutrones en el núcleo permanece constante; pero el número atómico aumenta por existir un protón suplementario. Un ejemplo de trasmutación por emisión de partículas beta lo tenemos en el comportamiento del carbono radiactivo. Los átomos del carbono 14 (número atómico 6, peso atómico 14), que es un radioisótopo natural del carbono 12, se trasmutan, por emisión de partículas beta, en nitrógeno 14 (número atómico 7, peso atómico 14). que tiene un núcleo estable.

Aproximadamente, la mitad de los radioisótopos naturales se puede trasmutar por emisión de partículas beta. También muchos radioisótopos artificiales presentan una trasmutación de este tipo.

Las partículas beta son muy ligeras y se desvían muy fácilmente en su trayectoria. Por ello, no se desplazan en línea recta como las partículas alfa. Sin embargo, suelen recorrer un espacio superior. En el aire, una partícula beta puede alcanzar más de un metro o, incluso, atravesar una lámina de aluminio de algunos milímetros de espesor.

EL POSITRÓN
Además de las partículas alfa y beta, que emiten los radioisótopos naturales, los radioisótopos artificiales pueden emitir también una partícula, que tiene la misma masa que el electrón, pero con una carga positiva igual a la del protón. Esta partícula se llama positrón, y puede considerarse como un electrón con una carga positiva igual, pero de signo opuesto a la del electrón.

EMISIÓN DE POSITRONES
Se ha visto que la emisión de partículas beta puede tener lugar cuando el núcleo contiene demasiados neutrones para ser estable. Si la relación entre protones y neutrones es la correspondiente al núcleo estable, no hay radiactividad. Si, por el contrario, el núcleo contiene demasiados protones para ser estable, puede convertir uno de sus protones en un neutrón, emitiendo un positrón que, al no poder permanecer en el núcleo, es expulsado

El átomo conserva el mismo peso atómico, pero el número atómico disminuye por haberse convertido un protón en neutrón. En 1934, Irene Joliot-Curie formó átomos de nitrógeno 13 (número atómico 7, peso atómico 13) al bombardear boro 10 con partículas alfa. El nitrógeno 13 se trasmutaba, por emisión de positrones, en carbono 13 (número atómico 6, peso atómico 13), y la presencia de la radiación, debida a los positrones (éstos fueron descubiertos en 1932), le permitió anunciar el descubrimiento de la radiactividad artificial:

Hay, además, un tercer tipo de radiación nuclear, que siempre se presenta en compañía de una de las dos recién explicadas. Se trata de la radiación gamma, que es de naturaleza electromagnética, como la luz y los rayos X, de los que sólo difiere por el origen (la luz y los rayos X se originan en el exterior del núcleo, como consecuencia del paso de electrones de una órbita a otra de menor energía; las radiaciones gamma, en cambio, se originan en el interior del núcleo, como consecuencia de una sucesiva estabilización de éste, sin que se modifique la relación protones-neutrones).

Las radiaciones nucleares alfa, beta y gamma constituyen, pues, el instrumento que un núcleo inestable tiene a su disposición para alcanzar la estabilidad. En algunos elementos, tal como se encuentran en la naturaleza, la emisión de las radiaciones nucleares se verifica espontáneamente. Se trata de los famosos elementos radiactivos, como el radio y el uranio.

Pero fenómenos de este género pueden provocarse también en el laboratorio. Y, durante el transcurso de estas investigaciones, el hombre ha conseguido asomarse a los más profundos misterios del átomo, construir núcleos inexistentes en la naturaleza, liberar las energías encerradas dentro de los núcleos, e incluso, como veremos en otro artículo, transformar unos elementos en otros.

En 1934, Irene Joilot-Curie (hija de la famosa María Curie) y su marido, descubrieron que un isótopo estable natural (el boro 10) puede trasformarse en un elemento radiactivo distinto, por bombardeo con “partículas alfa”. La radiactividad de los átomos producidos artificialmente se llama “radiactividad artificial”.