Teoría Cinética de los Gases

Conceptos Básicos de Electrostática Cargas Eléctricas

EXPERIMENTO CON CARGA ELÉCTRICAS EN LA ELECTROSTÁTICA

La palabra electricidad, empleada para designar la causa desconocida que daba a los cuerpos frotados la propiedad de atraer a otros, deriva, justamente, de elektron, nombre que en griego significa ámbar. Pero la voz electricidad, no usada por los griegos, fue introducida por Guillermo Gilbert (1540-1603), médico de cámara de la reina Isabel de Inglaterra. La soberana le acordó una pensión permanente para que se dedicara a la investigación científica sin preocupaciones económicas.

Gilbert Guillermo

Gilbert Guillermo, Médico

William Gilbert (1544-1603), físico y médico inglés conocido sobre todo por sus experimentos originales sobre la naturaleza de la electricidad y el magnetismo. Nació en Colchester, Essex, y estudió en el Saint John’s College de la Universidad de Cambridge. Comenzó a practicar la medicina en Londres en 1573 y en 1601 fue nombrado médico de Isabel I.

El doctor Gilbert, que fue el primero en estudiar sistemáticamente los fenómenos eléctricos, descubrió que otras substancias, entre ellas el vidrio, también adquirían por frotamiento la propiedad de atraer trocitos de cuerpos muy livianos. Esto puede comprobarse acercando pedacitos de papel a los dientes de un peine de material resinoso, seco, después de peinarse con él repetidas veces.

Si a una esferita de corcho, de médula de saúco o de girasol, suspendida de un hilo de seda, se acerca una barra de vidrio frotada, la esferita, por ebfenómeno de inducción electrostática, es atraída por la barra y repelida después del contacto. Lo mismo ocurre si se hace el experimento con una barra de ebonita.

Si se carga la esferita de un péndulo eléctrico o electrostático, así se llama el aparatito descripto más arriba, tocándolo con una barra de vidrio electrizada, y otro con una de ebonita en las mismas condiciones, se comnrobará. al acercarlas, aue se atraen; pero si ambas se tocan únicamente con la barra de vidrio, o con la de ebonita, en lugar de atraerse, al acercarlas se repelen.

pendulo electrostático

De estos hechos y otros análogos se sacaron las siguientes conclusiones:

a) Existen dos estados eléctricos opuestos, o como se dice ordinariamente, dos clases de electricidad, que se ha convenido en denominar vitrea o positiva y resinosa o negativa;

b) Electricidades de distinto nombre, o de signo contrario, se atraen; y del mismo nombre, o de igual signo, se rechazan y

c) Un cuerpo que no manifiesta acciones eléctricas se dice que está en estado neutro. La electrización de un cuerpo por frotamiento, vidrio por ejemplo, y los dos estados eléctricos o las dos clases de electricidad se explican así: el vidrio se electriza positivamente cuando se frota con una franela porque pierde electrones que los gana ésta, que se carga por ello negativamente. Como los electrones que pierde un cuerpo los gana el otro, se comprende por qué la carga eléctrica que aparece en ambos es igual; pero de nombre contrario.

Los cuerpos que como el vidrio, la ebonita, el lacre, la porcelana, etc., se electrizan por frotamiento y conservan durante bastante tiempo su estado eléctrico, son malos conductores de la electricidad; los que no se electrizan por frotamiento como, por ejemplo, los metales y el carbono, son buenos conductores de la electricidad. A los malos conductores se les denomina también aisladores.

cargas electricas

cuadro electoestática

En realidad, todos los cuerpos se electrizan por frotamiento, como se comprueba frotando un cuerpo conductor que se sostiene con un mango aislador. Lo que ocurre en ambos casos es lo siguiente: en un cuerpo mal conductor o aislador. el vidrio por ejemplo, las cargas eléctricas quedan localizadas en el lugar frotado; en un buen conductor no, pues deja pasar el estado eléctrico o la electricidad de un modo instantáneo a través del mismo y a otros conductores o lugares vecinos que estén en comunicación con él.

Conviene tener presente que la primera condición que se requiere para que un cuerpo sea mal conductor de la electricidad aislador de la misma, es que esté muy seco. Los electricistas no tienen miedo de tocar los cables que conducen la electricidad si están situados sobre madera bien seca, que es un aislador; en cambio no los tocan si están colocados sobre metales otro material conductor; inclusive la madera húmeda, pues b electricidad pasaría a tierra a rravés del cuerpo humano, que es un buen conductor, produciendo trastornos que pueden ocasionar la muerte.

Existen máquinas eléctricas que producen electricidad por frotamiento, que actualmente sólo tienen interés histórico y didáctico. Ellas se fundan en el hecho, ya explicado, según el cual cuando dos cuerpos se frotan entre sí, uno de ellos se electriza positivamente y el otro negativamente.

La primera máquina electrostática de frotamiento fue inventada por Otto de Guericke. Consistía en una esfera de azufre que giraba alrededor de uno de sus diámetros y se electrizaba frotándola con la mano. En la obscuridad despedía cierta luz acompañada de ruido.

El término electrostática se emplea para designar la parte de la física que estudia la electricidad estática, es decir, la que está en estado de equilibrio sobre los cuerpos —que se ha tratado en este artículo— para diferenciarla de la electricidad en movimiento, es decir, de la corriente eléctrica.

Espectro de la Luz Concepto Básico Espectro de Emisión

CONCEPTO DE ESPECTRO DE LA LUZ Y SU APLICACION EN ASTRONOMIA

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal. Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso. También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores. A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular. Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores. Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla. Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos. Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos. La pantalla se ubica en el foco de la segunda lente. Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda. De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma. La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca. Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia. El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital. Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado. También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros. Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento. Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando. Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié” puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío. Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

(Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estadc incandescente produce un espectro continuo. Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe. Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción. En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión. Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada .ongitud de onda, y otros otra distinta. Por consiguiente, el istrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores. Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal. Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales. Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.
Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores. Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija. Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas. De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella. Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción. Puede conocerlo midiendo la intensidad de las distintas rayas. Supongamos que hay I o veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad. Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la> intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas. Así se sabe que el Sol contiene 10 veces más hidrógeno que helio. Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Uso de Energia Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene “mayor poder” que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto. En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar. Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada. Por eso se habla de la “explosión” de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. “Explosión” no implica necesariamente “combustión”; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo. Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla. Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

QUÍMICA DE LOS  EXPLOSIVOS
Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente. Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto. El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario. Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno. Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo. Cuando la molécula contiene oxígeno “encerrado” como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas “propergoles”; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de .oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol. La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA
Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos. Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, ai norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta. Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia. La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de ¡titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial. Algo similar ocurre con las aguas subterráneas. A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers. Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor. Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares
Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil. La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc. Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  “esterilizadas”).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan. En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez. El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado. En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos. Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor. De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión. Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental. Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión. Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares “esterilizadas”, cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca. Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

El Espacio Curvo Teoría de Relatividad Curvatura Espacial

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo. ¿Pueden tales huecos de gusano emplearse para viajar en el tiempo? Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad. La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado “Formulación de la teoría general de la relatividad”.

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo. Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia. Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos. Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones. Ahora ponemos de alguna manera una bola de billar en medio de la lámina. El peso de la bola estira el plástico y produce una hondonada. Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar. Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio. De manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor. El Sol modifica la geometría del espacio-tiempo. En relatividad general no existe la fuerza gravitacional. La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito? Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones. Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo. El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar. De hecho, se usa a todas horas. Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad. El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—. La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a” la Tierra, pasa a pocos grados de él. La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro. Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo. Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La “línea recta” se vá doblando en un camino curvo alrededor de la superficie del planeta. Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo. Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado. Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se tras-forma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz. En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia. En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera. Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos. Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida. La evidencia experimental que se posee parece  indicar una curvatura hacía el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

El Principio de Equivalencia Teoría de la Relatividad General

EXPLICACIÓN SIMPLE DEL PRINCIPIO DE EQUIVALENCIA EN LA
TEORÍA GENERAL DE LA RELATIVIDAD FORMULADA POR ALBERT EINSTEIN

La teoría general de la relatividad constituye la culminación de los logros de Einstein. Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad. En esta parte se explica el significado de la teoría y se discute su influencia sobre nuestra concepción del universo. La teoría general demuestra que la luz puede quedar atrapada en un hueco negro. Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

Cuando estudiamos física, observamos que existen varios tipos de movimientos, normalmente usamos los rectilineos, como por ejemplo cuando viajamos de una ciudad a otra, o cuando caminamos de nuestra casa a la escuela. También están los circulares, es decir que el objeto sigui una trayectoria curva, como cuando “revoleamos” una piedra atada a un hilo. También dentro de estos tipos de trayectorias, tenemos aquellos en donde la velocidad es constante, es decir no varia, por ejemplo cuando viajamos en un tren a 70 Km./h y  siempre esa velocidad es la misma al paso del tiempo, son movimiento de velocidad uniforme.

Y también hay otro movimiento llamado acelerados que es cuando nuestra velocidad va cambiando a traves del tiempo y podríamos decir que es el caso mas normal de nuestra vida. Cuando salimos en nuestro auto, la velocidad pasa de  0 Km/h , cuando está denido a otra velocidad mas alta. Luego cuando llegamos a destino apretamos el freno y la velocidad llega a cero (cuando nos detenomos) en algunos segundos.

Cuánto mas grande sea esa aceleración mas rápido vamos a avanzar o a detenernos, y viceversa, si la aceleración es nula o ceo, la velocidad será siempre uniforme y no aumentará ni disminuirá, podemos decir que el movimiento uniforme es una caso especial del movimiento acelerado, cuando la aceleración es cero.

Albert Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración. Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Einstein  en su principio de relatividad afirma que las leyes de la física son las mismas para todos los observadores que se mueven con movimiento uniforme Como todas las cosas se comportan de la misma manera para un observador en reposo y para otro que se mueve con movimiento uniforme con respecto al primero, es imposible detectar el movimiento uniforme.

Siguiendo con su espíritu investigativo, Einstein comenzó a reflexionar sobre las limitaciones de la relatividad especial, porque la velocidad constante o uniforme es un caso de un movimiento mas general, que como vimos antes, del movimiento acelerado.

Einstein pensaba, y estaba en lo ciento que la aceleración es fácil de detectar. Nunca dudamos cuando viajamos en un automovil, y este acelera, pues no sentimos apretados o “empujados” contra nuestro asiento. Lo mismo cuando frena bruscamente , nos vamos hacia adelnate y sentimos el efecto de la aceleración y del movimiento.

Albert, estuvo con este problema (que parece tan simple para nosotros) mucho tiempo en su cabeza sin lograr un modelo que le permita seguir avanzando con su novedosa teoría.

En una conferencia dictada en Kyoto en diciembre de 1922, relató al auditorio que un día, estando sentado en su silla de la oficina de patentes de Berna, se le ocurrió de súbito una idea: si alguien se cayera del techo de la casa, no sentiría su propio peso. No sentiría la gravedad. Ésa fue “la idea más feliz de mi vida“, dijo.

La mencionada idea puso a Einstein en la vía que conducía a la teoría general de la relatividad, extensión de su teoría especial, que debería incluir toda clase de movimientos, no sólo el movimiento uniforme. Al desarrollarla, inventó una nueva teoría de la gravedad que reemplazó a la ley de gravitación universal de Isaac Newton.

EXPLICACIÓN DE SU IDEA: .
La respuesta a los problemas de Einstein era, literalmente, tan simple como caer de un tejado. La idea de Einstein surgió al darse cuenta de que alguien que cayera hacia la tierra no sentiría el efecto de la gravedad. Como es difícil imaginar una caída libre desde un tejado, imaginemos un hombre que cae desde un avión. Según cae, todo lo que lleva consigo cae a la misma velocidad (la ley de la gravitación universal de Newton, que dice que la fuerza gravitatoria es proporcional a la masa de los objetos).

Si se da la vuelta, las monedas no se le saldrán del bolsillo, ya que están aceleradas hacia la tierra al igual que él. Si se mete la mano en el bolsillo, saca unas cuantas monedas y las deja caer (si las arrojara con fuerza sería distinto), seguirían cayendo con él. Todo esto demuestra una cosa: la caída libre ha cancelado la gravitación. En otras palabras, aceleración es equivalente a gravitación.

Para ilustrarlo, imaginemos un ascensor en el último piso de un rascacielos muy alto. Dentro, duerme plácidamente un físico, junto a su despertador. Un segundo antes de que suene el despertador, cortamos los cables que sostienen el ascensor. El ascensor empieza a caer con un movimiento acelerado hacia el suelo, suena el despertador, y el físico se despierta. Al despertar, se siente ligero, sin peso. El despertador flota a su lado. Saca las llaves del bolsillo, las deja caer y también flotan.

El físico se divierte, no está asustado,porque cree que alguien le ha colocado en una nave y se encuentra en el espacio. Incapaz de pensar que alguien le haya colocado en el ascensor, no imagina que lo que está experimentando es una caída libre, y se vuelve a dormir.

Ahora, imaginemos el mismo ascensor enganchado a una nave que le traslada al espacio y ascelera hacia arriba. Dentro del ascensor hemos vuelto a colocar a nuestro físico y su despertador. Justo antes de que suene el despertador, ponemos en marcha la nave y el ascensor se desplaza a 9,8 m por segundo cada segundo (9,8 m/s2, la aceleración que sentimos debido a la fuerza de gravedad de la Tierra).

El físico ve el reloj en el suelo, y siente su propio peso sobre el suelo del ascensor. Saca las llaves de su bolsillo, las tira y caen al suelo, cerca de él, describiendo una perfecta parábola en su caída. El físico está cada vez más divertido, porque piensa que quien fuera que le había puesto en el espacio, le ha llevado ahora de regreso a la Tierra. Incapaz de pensar que alguien se lo está llevando del planeta, no se da cuenta de que lo que está experimentando no es la gravedad, sino una aceleración. Así que se vuelve a dormir.

Einstein demostró por lo tanto que el movimiento no-uniforme, de la misma forma que el uniforme, es relativo. Sin un sistema de referencia, es imposible saber diferenciar entre la fuerza de una aceleración y la fuerza de gravedad.

ingravidez, astronautas en sus practicas

Su equivalencia permite a la NASA entrenar a sus astronautas en condiciones de ingravidez, en un avión en caída acelerada que iguala la aceleración gravitacional de la tierra. Durante unos minutos, los que van dentro del avión están en la misma situación que nuestro físico en el ascensor que caía desde lo alto del rascacielos. Los astronautas en sus entrenamientos recrean las condiciones de gravedad cero del espacio de este modo, volando en un avión a reacción (adecuadamente apodado el Vomit Comet —o Cometa del Vómito—) en una trayectoria propia de una montaña rusa. Cuando el avión vuela hacia arriba, los pasajeros se quedan pegados a sus asientos porque experimentan fuerzas mayores que la gravedad. Cuando después se inclina hacia delante y cae en picado hacia abajo, son liberados del tirón de la gravedad y pueden flotar dentro del aparato.

EQUIVALENCIA ENTRE  GRAVEDAD Y ACELERACIÓN:

En su artículo del Annual Review, Einstein explicó mediante su experimento mental que es imposible distinguir una aceleración constante de los efectos de la gravedad. Llamó a esta idea principio de equivalencia, porque mostraba la equivalencia entre aceleración y gravedad.

Según Einstein, la gravedad es relativa. Existe sólo cuando hay aceleración. Cuando los científicos dejan caer la bola en la nave espacial acelerada, la bola es libre y no está acelerada. La bola está en movimiento uniforme y la nave acelera hacia ella.

Los científicos sienten la aceleración de la nave. Si uno de los astronautas salta fuera de la nave, quedará liberado de la aceleración del vehículo y no sentirá ninguna aceleración. No sentirá ningún movimiento, porque el movimiento sin aceleración (movimiento uniforme) no puede identificarse.

principi de equivalencia

Newton había explicado la gravitación por la fuerza de atracción universal;  Einstein la explicó en 1916 por la geometría del espacio-tiempo… Transcurridos casi ochenta años, la audacia de aquel salto conceptual sigue suscitando la admiración de los físicos. Einstein construyó la relatividad general intuitivamente, a partir de «las sensaciones que experimentaría un hombre al caerse de un tejado», en un intento de explicar los fenómenos gravitacionales sin la intervención de fuerza alguna. El personaje en estado de ingravidez imaginado por Einstein no tiene motivo para pensar que está cayendo, puesto que los objetos que lo acompañan caen a la misma velocidad que él, sin estar sometidos aparentemente a ninguna fuerza. Debe seguir, pues, una trayectoria «natural», una línea de máxima pendiente en el espacio-tiempo. Esto implica que los cuerpos responsables de la gravitación (la Tierra, en este caso) crean una curvatura del espacio-tiempo, tanto más pronunciada cuanto mayor es su masa. Los planetas, por ejemplo, caen con trayectorias prácticamente circulares en la depresión (de cuatro dimensiones…) creada por la masa del Sol.

El mismo principio es válido cuando la nave está de vuelta en la Tierra. Cuando el astronauta deja caer la bola, ésta no siente ninguna aceleración. Como la aceleración de la bola se debe a la atracción gravitacional de la Tierra, la bola no siente ninguna gravedad. La bola que el astronauta deja caer flota ahora en el espacio, como los astronautas de la lanzadera espacial. Es el suelo, la Tierra, que sube para encontrar la bola y chocar con ella.

¿Cómo puede ser esto? La Tierra está en completa sincronía con los demás planetas, moviéndose con la Luna alrededor del Sol en una órbita precisa. La Tierra no puede moverse hacia arriba para chocar con la bola; tendría que arrastrar consigo a todo el sistema solar.

Esto es realmente lo que ocurre, según Einstein. Al saltar de un trampolín quedamos sin peso, flotando en el espacio, mientras la Tierra con todo el sistema solar aceleran en nuestra dirección. No estamos acelerados. Es la Tierra la que lo está. No sentimos la gravedad porque para nosotros no existe.

De acuerdo con Einstein, gravedad es equivalente a movimiento acelerado. Los astronautas de la nave espacial acelerada, lejos del sistema solar, sienten una gravedad real, no una mera simulación de gravedad. Y el astronauta que salta de la nave y la ve acelerar alejándose de él está en la misma situación que nosotros cuando saltamos del trampolín y vemos que la Tierra acelera hacia nosotros.

El principio de equivalencia de Einstein dice: “La gravedad es equivalente al movimiento acelerado. Es imposible distinguir los efectos de una aceleración constante de los efectos de la gravedad”.

Fuente Consultada:
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein Para Dummie s Carlo I. Calle
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Feymann Richard Fïsico Premio Nobel Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física. Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

“Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.”

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin. “Hay mucho sitio al fondo”, dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces. Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, “nanos”, que permiten trabajar y manipular las estructuras moleculares y sus átomos.

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

  1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
  2. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
  3. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  4. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia Curiosidades y Avances

Teoría de la Relatividad
Anécdotas Matemáticas
Tres Grandes Matemáticos
Ideas Geniales De Las Ciencias
Inventos Geniales
Medición Radio Terrestre En La Antigüedad
El Número Pi
El Átomo
La Partículas Elementales del la Materia
El Sistema Solar
Astronomía Para Principiantes
Conceptos Informáticos
La Vida de las Estrellas
El Genoma Humano
Estudio del Cuerpo Humano
Seres Humanos en el Espacio
Humanos en el Fondo del Mar
Los Tres Problemas Griegos
La Misión Apolo XI
 El Big Bang
 SQL Para Bases de Datos
 Los Efectos de Una Explosión Nuclear
 El Agua Potable
 Hidrógeno: El Combustible del Futuro
 El Planeta Sedna o Planetoide Sedna?
 La Energía Nuclear y Sus Usos
 El Petróleo:Una Noble Sustancia
 El Movimiento De Los Satélites Artificiales
 Porque hay rozamiento entre dos superficies?
 Consultas En Un Diccionario Medico Etimológico
 Internet y la WEB
 La Inteligencia Humana (Con Un Test)
 Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
 Tres Conceptos Físicos Modernos
 Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
 Conceptos Básicos de Cohetería Moderna
Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
Hormigones y Morteros-Cálculo de Materiales por m3
 Centrales Generadoras de Energía
 Los Combustibles Fósiles
 La Célula y La Clonación
 Experimento De Las Esferas de Maldemburgo
 Teoría del Campo Unificado
 La Presión Atmosférica y La Experiencia de Torricelli
 La Teoría Cinética de los Gases
 Fórmula Matemática de la belleza Universal
 Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
 La Inteligencia Artificial
 La Inmunidad Humana
 Motores de Combustión Interna y Eléctricos
 Pilas y Baterías – Principio Físico de Funcionamiento
 Bell o Meucci Quien inventó el teléfono?
 Las Vacunas
 Las Vitaminas
 La Poliomielitis
 La Leyes de Kepler
 Eclipses de Sol y de Luna
 La Medición del la velocidad de la Luz
 Nuestra Querida Estrella: El Sol
 Las Leyes de la Mecánica Clásica de Newton
 Las Leyes del Péndulo Físico
 La Matemática en el Siglo XX – Desafíos Sin Resolver
 Aprende a Resolver Una Ecuación de 2do. Grado
 A que llamamos el pensamiento lateral? Problemas
 Desalinizar El Agua de Mar
 La Economía Como Ciencia
 Conceptos Básicos Sobre La Ciencia
 Teoría de la Deriva de los Continentes
 La Lucha contra las infecciones: los antibióticos
 Últimos avances científicos en medicina (2007)
 La Era Espacial: Las Misiones Espaciales
 Teorías Físicas Que Fracasaron
 Descubriendo Nuevos Metales en el Siglo XVII
 El Experimento del Siglo XXI: “La Máquina de Dios”
 Enanas Blancas, Neutrones y Agujeros Negros

 

Software Calculo de Esfuerzos en Vigas Corte y Momento Flector

USO DEL SOFTWARE ARQUIMEDES

  • Debes ingresar la longitud de la viga
  • Elegir el tipo de carga e ingresar los datos de la misma
  • Puedes ir sumando cargas o distintos estados
  • Si es un tramo de una viga continua, puedes ingresar los momentos en los extremos
  • Pulsando sobre los botones de mto. flector y corte puede ver los diagramas
  • Puedes visualizar e imprimir los diagramas

Picar aquí para comenzar la descarga

Bajar Complementos

Es una versión de prueba, pero ideal para estudiantes de ingeniería
(en las vigas simplemente apoyadas puede aparecer un mínimo momento flector en uno de los extremos, pero debes considerarlo como cero)

Los Archivos de Ambas Descargas Se Deben Colocar Adentro de una Misma Carpeta
Descargar Software Descargar Complementos

Ver También: Método de Cross Para Vigas

Esfuerzos en una Viga Isotática Online

Volver a Ingeniería Civil

 

Ver Tambien: Cross Para Vigas

Usos del Transbordador Espacial Misiones y Programas de la NASA

El Trasbordador Espacial
El Trasbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.
Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

Columbia. Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

Challenger. Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

Discovery. Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur. En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

Atlantis. Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

Endeavour. Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador
británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise. Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.
Paneles de Carbono Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.
Videos y fotos Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.
Aislante térmico. El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.
Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias: La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue. En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.”El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo”, dice el director de la agencia, Sean O’Keefe. A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

Resolucion Ecuacion de Segundo Grado Aplicar la Resolvente

ECUACIONES DE 2º GRADO

CALCULO DE LAS RAÍCES EN ECUACIONES CUADRÁTICAS
Por Silvia Ele Profesora de Matemáticas

RESOLVER UNA ECUACIÓN DE SEGUNDO GRADO CON UNA INCÓGNITA 1ra. Parte

Una ecuación de segundo grado es aquella en la cual la incógnita

(generalmente simbolizada por x ) aparece elevada a la segunda potencia.

En general, puede simbolizarse como

MATH

donde $a$ representa al coeficiente del término cuadrático, y nunca puede

ser$=0$ , pero sí puede ser igual a cualquier otro número real.

MATH es el coeficiente del término lineal, es decir aquel en que $x$ aparece elevada

a la primera potencia. Puede o no ser igual a $0$. Y

MATH es el término independiente, pues es el coeficiente del término donde

$x$ aparece elevada a la potencia $0$, o sea, $x$ no aparece porque $x^{0}=1$.

Según los valores de $\ \ a$, $b$ y $c$, las ecuaciones de segundo grado se clasifican en

1.Completas, cuando $a,b$ y $c$ son distintas de $0$.

2.Incompletas, cuando

2.1 $b=0$, o sea, no contiene término lineal,

o bien $\ $cuando 2.2 $c=0,$ es decir, no existe término independiente.

Veamos 2.1. La forma general sería

MATH

En este caso, la resolución es fácil:

MATH $\ \ \ \ \ \ $de donde MATH

Por lo tanto

MATH MATH y MATH

Por ejemplo:

$4x\U{b2}-25=0,$

se resuelve así: $\ $

de $\ 4x\U{b2}=25$, es MATH, y MATH

Por lo tanto, MATH $\ \ \ \ \ \ \ \ $ y MATH

2.2Si $\ \ \ c=0$, es $\ \ \ ax^{2}+bx=0$

En este caso, para resolver, extraemos el factor común, y nos queda

MATH $si$ $a=1$

Que es lo mismo que $(x-0)(x+b)=0,$

y este producto dará $=0$ sólo si $x\U{2081} =0$ , (porque el primer factor será $0$,

y multiplicado por lo que sea que valga el otro, dará producto $0$), o bien si

$x\U{2082} =-b$ (ya que $-b+b=0$ ).

Por ejemplo, $\ x^{2}-4x=0$ se puede pensar como

MATH o sea $x(x-4)$ $=0$ , que tendrá

como raíces $x\U{2081} =0$ y $x\U{2082} =4.$

Volviendo al caso general, si $\ \ a=1$, se dice que las ecuaciones son Reducidas.

Veamos cómo se resuelve una de estas joyitas cuando $a=1$, y $b$ y $c$ son

distintas de $0$.

Su forma sería MATH

Pensémoslo en un ejemplo: $\ x^{2}-6x-16=0$ .

Si hacemos un conveniente pasaje de miembro ( el viejo truco ),

nos queda $x2-6x=16$ [1]

Si observamos el primer miembro, vemos que podría corresponder a los dos

primeros términos de un trinomio cuadrado perfecto ( o sea, el cuadrado de un

binomio), donde

MATH es el cuadrado del primer término del binomio,

MATH sería el doble producto del primero por el segundo,

pero nos faltaría el cuadrado del segundo.

Ahora bien, si $\ x$ es el primer término del binomio, $\ $

$-6$ sería el producto de $2$ (doble producto, dijimos) por el segundo.

Si llamamos $q$ al segundo, donde

$2q=-6$ implica que $q=-3$.

Y el binomio sería $(x-3)$

Entonces, apelando al otro viejo truco: “sumo y resto lo mismo y no altero

la suma”, puedo escribir

MATH (porque $9-9=0$)

Y, asociando convenientemente, queda

MATH

o sea, MATH

Entonces, reemplazando en [1], queda MATH

y, resolviendo, será

MATH

y

MATH

o sea MATH de donde $\ x\U{2081} =8$

y $x\U{2082} =-5+3,$ $x\U{2082} $ $=-2$

Generalizando lo anterior, se ve que este mismo proceder es aplicable a

cualquier ecuación general de 2º grado con una incógnita. O sea, si:

MATH

será $\ x^{2}+bx=-c.$

Y si utilizamos el recurso del trinomio cuadrado perfecto, veremos que

$\ bx=2.x.q$ .

Entonces, es $q=\frac{b}{2}.$

y, si sumamos y restamos $\ q^{2}$ en ambos miembros (nuestro querido y

viejo truco), será MATH

Luego, antes de caer en el colpaso cerebral, hacemos el conveniente

pasaje de miembro y el factoreo del trinomio, y nos quedará

MATH 

De donde, MATH

y

MATH ; MATH ; MATH ;

MATH; MATH

que es lo mismo que

MATH .

esto es lo mismo que

MATH 

Y si aún queda alguien que desconfíe de este razonamiento, veamos si,

aplicando esta fórmula en la ecuación anterior, llegamos a las mismas

raíces. (Atención: un ejemplo no es una demostración válida, pero si el ejemplo

no coincide con la conclusión, vale para demostrar la no validez de la misma.)

Recordemos que era:

$a=1$; $\ \ b=-6$; $\ \ c=-16$

entonces MATH

de donde

MATH,

pero $36+64=100$, entonces

MATH o sea MATH entonces

$\ x\U{2081} =8$ ( que coincide con una de las que hallamos antes)

y

MATH entonces $\ x\U{2082} =-2$ (y que también coincide con la otra que hallamos)

APLICACIÓN ONLINE

Una vez aceptado esto, es una buena idea proponernos, para cuando

egresemos de la sala de terapia intensiva para cerebros exhaustos,

preguntarnos si esta fórmula sirve para todos los casos. O sea,

¿sirve tanto para completas como para las incompletas y para las

que no son reducidas?.

También nos queda para después el análisis de la relación entre el

valor y la “realidad” de las raíces, y el signo de la expresión sub-radical

en la fórmula.

Estos desarrollos los dejamos para otro día, cuando la convalescencia

esté avanzada, y nuestras neuronas hayan recuperado su actividad.

Por hoy, les deseo feliz terapia.

Y les digo “¡Hasta el próximo suplicio!”

“Silvia Ele, la autora de esta colaboración, es una profesora de matemática de muchos años, con quien podés comunicarte enviándole un mensaje a  [email protected] “

Curiosa Situacion Física-Vuelo en Globo-Yakov Perelman

CURIOSA SITUACIÓN FÍSICA PARA VOLAR ECONÓMICO

vida en condicones extremas

El procedimiento mas barato de viajar:
El ingenioso escritor francés del siglo XVII, Cyrano de Bergerac cuenta en su “Historia Cómica de los Estados e Imperios de la Luna” (1652), entre otras cosas, un caso sorprendente que, según dice, le ocurrió a él mismo.

Un día, cuando estaba haciendo experimentos de Física, fue elevado por el aire de una forma incomprensible con sus frascos y todo. Cuando al cabo de varias horas consiguió volver a tierra quedó sorprendido al ver que no estaba ni en Francia, ni en Europa, sino en América del Norte, ¡en el Canadá!

¿Se puede ver desde un aeróstato cómo gira la Tierra? (El dibujo no se atiene a escala)

No obstante, el escritor francés consideró que este vuelo transatlántico era completamente natural. Para explicarlo dice que mientras el “viajero a la fuerza” estuvo separado de la superficie terrestre, nuestro planeta siguió girando, como siempre, hacia oriente, y que por eso al descender sentó sus pies no en Francia, sino en América.

¡Que medio de viajar más fácil y económico! No hay más que elevarse sobre la superficie de la Tierra y mantenerse en el aire unos cuantos minutos para que al descender nos encontremos en otro lugar, lejos hacia occidente.

¿Para qué emprender pesados viajes por tierra o por mar, cuando podemos esperar colgando en el aire hasta que la misma Tierra nos ponga debajo el sitio a donde queremos ir?.

Desgraciadamente este magnífico procedimiento es pura fantasía.

En primer lugar, porque al elevarnos en el aire seguimos sin separarnos de la esfera terrestre; continuamos ligados a su capa gaseosa, es decir, estaremos como colgados en la atmósfera, la cual también toma parte en el movimiento de rotación de la Tierra alrededor de su eje.

El aire (o mejor dicho, su capa inferior y más densa) gira junto con la Tierra y arrastra consigo todo lo que en él se encuentra: las nubes, los aeroplanos, los pájaros en vuelo, los insectos, etc., etc.

Si el aire no tomara parte en el movimiento de rotación de la Tierra sentiríamos siempre un viento tan fuerte, que los huracanes más terribles parecerían ligeras brisas comparadas con él (La velocidad del huracán es de 40 m por segundo o 144 km por hora.

Pero la Tierra, en una latitud como la de Leningrado, por ejemplo, nos arrastraría a través del aire con una velocidad de 240 m por segundo, es decir, de 828 km por hora, y en la región ecuatorial, por ejemplo, en Ecuador, esta velocidad sería de 465 m por segundo, o de 1.674 km por hora).

Porque lo mismo da que estemos nosotros fijos en un sitio y que el aire pase junto a nosotros o que, por el contrario, sea el aire el que está quieto y nosotros los que nos movemos dentro de él; en ambos casos el viento será igual de fuerte. Por ejemplo, un motociclista que avance a una velocidad de 100 km por hora sentirá un viento fuerte de frente aunque el aire esté en calma.

En segundo lugar, aunque pudiéramos remontarnos hasta las capas superiores de la atmósfera o la Tierra no estuviera rodeada de aire, el procedimiento de viajar económicamente ideado por el satírico francés sería también irrealizable.

Efectivamente, al separarnos de la superficie de la Tierra en rotación continua seguiríamos, por inercia, moviéndonos con la misma velocidad que antes, es decir, con la misma velocidad a que se movería la Tierra debajo de nosotros.

En estas condiciones, al volver a la Tierra nos encontraríamos en el mismo sitio de donde partimos, de igual manera que cuando damos saltos dentro de un vagón de ferrocarril en marcha caemos en el mismo sitio. Es verdad que por inercia nos moveremos en línea recta (tangencialmente a la superficie terrestre), mientras que la Tierra seguiría un arco debajo de nosotros, pero tratándose de lapsos de tiempo pequeños esta diferencia no se nota.

Fuente Yakov Perelman Física Recreativa

Ir al Menú de Cuestiones Físicas

 

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

USO DEL SOFTWARE COLUMBIA PARA PÓRTICOS

1 Ingresas las cantidad de pisos y tramos de tu pórtico (ver ejemplo mas abajo)
2 Ingresas las rigideces de cada barra según corresponda sus vínculos
3 Ingresas los vínculos de las barras externas (empotradas o apoyadas)
4 Ingresas las cargas verticales y horizontales
5 Calculas los momentos finales de empotramiento (picas sobre un botón)
6 Ingresas la altura de cada piso
7 Calculas los esfuerzos de sujeción por piso (picas sobre un botón)
8  Puede visualizar e imprimir los datos obtenidos

(*) El programa tiene un mini manual online de uso para consulta

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

Los Archivos de Ambas Descargas Se Deben Colocar Adentro de una Misma Carpeta
Descargar Software Descargar Complementos

Ver También: Método de Cross Para Vigas

Volver a Ingeniería Civil

Interseccion Circunferencia y Recta Geometria Analitica Conicas

CALCULADORA DE INTERSECCION DE CIRCUNFERENCIA Y RECTA

CIRCUNFERENCIA: Un circunferencia está formada por una sucesión de puntos que están a la misma distancia de un punto que se llama centro. Existen muchas partes en un círculo.  El radio es un segmento con un extremo en el centro y el otro en el círculo. La cuerda es cualquier segmento con ambos extremos en el círculo. Eldiámetro es una cuerda que pasa por el centro del círculo.

La secante es una línea que interseca dos veces el círculo, y la tangente interseca el círculo en exactamente un solo punto. La tangente es perpendicular al radio en su punto de tangencia. El perímetro de un círculo se llama circunferencia y es igual a la distancia alrededor del círculo.

La figura de abajo muestra unas cuantas partes más del círculo que se emplearán posteriormente.

interseccion circulo y recta

El ángulo central es un ángulo con el vértice en el centro del círculo. El arco es una sección de un círculo y a menudo se le describe en términos del tamaño de su ángulo central. Entonces, podríamos referirnos a un arco de 20° o un arco de Pi/9 rad. (Pi=3.14)  Aclaramos que 1 rad=57° 18´ aprox. y es el ángulo correspondiente para que la longitud del arco sea igual al radio.

Un arco de longitud igual al radio es 1 rad. Un ángulo central divide el círculo en un arco menor y un arco mayor. También nos podemos referir a un arco por sus puntos extremos. En la figura, el arco menor se identifica como AB. El arco mayor se identifica como ABC, donde A y B son los puntos extremos y C es cualquier otro punto sobre el arco mayor. La longitud de un arco se denota colocando una m enfrente del nombre del arco. Entonces, mAB es la longitud de AB. Un sector es la región en el interior del círculo y está limitado por un ángulo central y un arco.

interseccion de circunferencia y recta

Ejemplo de una intersección entre una recta y una circunferencia, usando la aplicación de mas arriba:

Encontrar los puntos en los que la recta y = 2x – 10 corta al círculo con centro en punto de coordenadas (4, -2) y radio 4.472136. (este valor equivale a la raíz cuadrada de 20).

La ecuación del circulo es:

Y entonces se debe resolver el sistema de ecuaciones siguiente:

Resolviendo se obtiene que hay dos puntos de intersección de coordenadas: A (6,2) y B(2,-6)

Para hacerlo desde esta pagina usando el software de arriba, debe ingresar en Circunferencia C1 los valores en el siguiente orden:
radio= 4.47
x = 4
y = -2

Puede hacer clic en el Botón Graficar y observarás la circunferencia , y si deseas puedes cambiar el valor de la escala y volver a hacer clic en graficar para observar como se adapta al plano de trabajo.

Ahora para la recta se ingresan los dos puntos de pasos por ejemplo, cuando x=0, y=-10 y cuando x=2, y=0

Se vuelve a hacer clic en el Botón Graficar y en las casillas de abajo tendrás los valores de los puntos de intersección y la graficación correspondiente.

La Presion Atmosférica Experiencia de Torricelli Concepto Definicion

LA MEDICIÓN DE LA PRESIÓN ATMOSFÉRICA POR TORRICELLI

Todos sabemos que existen varios tipos de presión; cualquiera comprende por ejemplo, la presión que realiza un dedo apoyado apretadamente sobre alguna cosa. Esta presión es igualmente aplicable a los sólidos, a los líquidos y a los gases. De la misma forma que se han hallado medios especiales para medir la gravedad y el peso específico de un cuerpo, también se inventaron medios especiales para medir las presiones.

Cuando se habla de los tres estados de la materia —sólido, líquido y gaseoso— no se hace hincapié en que dos de ellos se parecen entre sí bastante más que el tercero. El agua es muy diferente del aire, pero ambos gozan de la propiedad de fluir. En el sólido existen fuerzas que mantienen unidas las moléculas, de manera que su forma se conserva pero la forma del aire y del agua varían constantemente, porque tanto uno como otra fluyen. En el lenguaje científico, tanto los líquidos como los gases se denominan fluidos. Ahora bien, en todo fluido existe una cierta presión; conocemos perfectamente un ejemplo, ya que siempre hemos soportado la presión del aire, que se denomina presión atmosférica, es entre todas las presiones fluidas, la más importante para nuestra existencia.

Ante todo, cabe decir que en el inmenso océano de aire que nos rodea, existe presión fluida; la consecuencia más importante de esta presión es nuestra respiración. Al respirar, ejecutamos un movimiento que tiende a vaciar nuestros pulmones, pero por estar éstos en comunicación con el aire exterior, la presión atmosférica hace que éste penetre en el espacio que ha quedado libre. Es, pues, evidente que sin la presión atmosférica no nos sería posible respirar.

En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y rebotando caóticamente. Esta agitación frenética hace que los gases se expandan hasta ocupar todo el lugar disponible en un recipiente. Nuestro planeta está envuelto por una capa de gases a la que llamamos atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la Tierra restringe su expansión.

Estamos sumergidos en un “océano de aire”, una capa gaseosa que, como una cáscara de manzana (tan fina es), recubre el planeta. En forma similar a como lo hace un liquido, el peso del aire sobre la superficie terrestre ejerce una presión, la presión atmosférica. A diferencia de los líquidos, los gases son compresibles: como su densidad puede variar, las capas superiores de la columna de aire comprimen a las más bajas.

En los lugares más profundos de la atmósfera, es decir a nivel del mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece a unos 40 Km. de altura. La capa baja, la tropósfera, presenta las condiciones necesarias para la vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del aire total de la atmósfera.

La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de superficie (1 Kg/cm²) pero, sin embargo, no lo notarnos (motivo por el cual, por miles de años, los hombres consideraron al aire sin peso). ¿Cómo es que los animales y las personas que están en la Tierra pueden soportar tamaña presión?

El aire ejerce su presión en todas direcciones (como todos los fluidos y los gases), pero los líquidos internos de todos esos seres ejercen una presión que equilibra la presión exterior. En este hecho se basa el mecanismo de esterilización por vacío: para eliminar los microorganismos de una muestra (alimento, instrumental, etc.), se la coloca en un recipiente del cual se extrae el aire. La presión exterior es reducida y los fluidos internos de las bacterias, que estaban sometidas a la presión atmosférica, se expanden, haciendo que éstas “revienten”.

Si se extrae el aire de un recipiente, la presión atmosférica lo aplastará, a menos que el recipiente sea suficientemente rígido.

Al apretar una sopapa (para destapar cañerías) contra una superficie pulida se aplasta y queda sin aire. Cuando, por acción de las fuerzas elásticas, la sopapa recupera su forma inicial, queda un vacío parcial en el interior y la presión atmosférica exterior la mantiene adherida a la pared. Del mismo modo, las patas de las moscas tienen pequeñas ventosas que les permiten caminar por paredes y techos sin caer al piso.

El funcionamiento del gotero obedece al mismo fenómeno. Al apretar la perilla de goma creamos un vacío parcial. Cuando sumergimos el tubito en el liquido y soltamos la perilla, la presión atmosférica que se ejerce sobre la superficie libre del liquido lo obliga a subir por el tubo hasta la región de menor presión dentro de la perilla.

Experiencia de Torricelli:
En 1643, el físico italiano Evangelista Torricelli ideó un procedimiento para medir la presión atmosférica.

¿Por qué el mercurio no descendió más? El tubo no se yació porque el aire exterior presionaba sobre el mercurio de la cubeta (en cambio, en la parte superior del tubo se produjo vacío). La presión ejercida por la atmósfera en el punto Q es igual a la presión en R, ya que ambos puntos están al mismo nivel en el mismo fluido. Es decir que la presión que la columna de aire de casi 40 km de altura (la atmósfera) ejerce sobre la superficie libre del mercurio (pQ) es igual a la que ejerce la columna de 76 cm de mercurio (pa) , entonces:

Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa

Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb = 0,75 Torr).

1 atm = 760 mm Hg = 760 Torr

Esta experiencia logró explicar por qué había un límite de profundidad para extraer el agua de las minas: la atmósfera no ejerce una presión ilimitada, sólo alcanza a sostener una determinada altura de agua.

La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama barómetro.

Poco después de la experiencia de Torricelli, Blaise Pascal predijo que la presión atmosférica debe disminuir cuando se asciende por una montaña, ya que la columna de aire soportada es cada vez menor. Su cuñado se encargó de hacer la experiencia y comprobar la hipótesis en 1658. A medida que ascendía al monte Puy de Dome observó el descenso de la columna mercurial del barómetro (que desde entonces pudo ser usado también como altímetro).

Pero, ¿cuál es la relación entre la presión atmosférica y la altura? Si la densidad del aire fuera uniforme, la presión disminuiría proporcionalmente con la altura. Podríamos afirmar, por ejemplo, que “la presión disminuye 1 Torr por cada 11 metros que nos elevamos”. Pero tengamos presente que las capas más bajas de la atmósfera están más comprimidas por lo que, conforme subimos, el aire se va enrareciendo (se hace menos denso). Por lo tanto, cuanto más alto estemos, más se necesitará subir para que la presión disminuya 1 Torr.

El peso total del aire en la atmósfera se ha estimado en unos 5.000 billones de toneladas, que determinan una presión aproximada de 1,033 Kg. por centímetro cuadrado a nivel del mar. La presión no se siente porque se ejerce igualmente desde todos los ángulos sobre el cuerpo. Sin embargo, la presión del aire puede demostrarse extrayendo todo el aire de un envase, de modo que se produzca el vacío en su interior. Como la presión del aire exterior es más grande que la interior el envase se contraerá y cederá. En la atmósfera la presión del aire varía y se mide con barómetros. Las variaciones son importantes para realizar pronósticos del tiempo, porque las diferencias de presión se asocian con los

Torricelli Evangelista Físico Italiano

Fue físico Evangelista Torricelli, que supuso que el agua subía por los tubos, cuando funcionaban las bombas, por efecto del peso del aire, es decir, de la presión que la atmósfera ejercía sobre la superficie libre del agua. Pero pensó, además, que esa presión debía tener un límite tal que no permitía elevar aquel líquido a más de 10 metros y, reflexionando, supuso que un líquido como el mercurio, que tiene un peso específico unas 13,6 veces mayor que el agua, se elevaría a tan sólo unos 76 centímetros. Torricelli comunicó sus ideas a otro discípulo de Galileo Galilei, de apellido Viviani. Este realizó el experimento hoy conocido con el nombre de experiencia de Torricelli, que confirmó aquellas ideas.

CICLONES Y LOS ANTICICLONES: El cuerpo humano se adapta a la vida en un océano de aire del mismo modo que los peces se adaptan a las tremendas presiones del fondo del mar. Sin embargo, la presión atmosférica decrece sobre el nivel del mar.

A 7.500 metros de altura la presión del aire es de 0,42 gramos por centímetro cuadrado, alrededor de dos quintas partes de la presión a la que está adaptado el cuerpo, y a los 18.000 metros la presión es sólo la de un décimo de la que se ejerce al nivel del mar. Cuando la presión del aire ha descendido mucho, el cuerpo no recibe oxígeno suficiente. De ahí que los aviones posean cabinas presurizadas, que hacen más cómodo el vuelo. La presión del aire es la fuerza utilizada en las BOMBAS. Comprimido, el aire llegó a ser una útil fuente de energía. Por ejemplo, el aire comprimido se usa en las herramientas naúticas.

PARA SABER MAS…
Qué es el barómetro

El tubo de Torricelli aplicado a la medición de la presión atmosférica, forma ni más ni menos lo que se llama un barómetro, que significa precisamente “medidor del peso”; con el barómetro medimos, pues, el peso atmosférico. Cuando lo consultamos, nos contentamos con ver si la aguja marca buen tiempo o variable, e lo que sea en cada caso, como si el barómetro poseyera el don de la profecía; pero lo que hacemos en realidad, aunque apenas nos demos cuenta de ello, es medir la presión atmosférica, que se indica bajo aquellos signos. La aguja del barómetro indica la altura en milímetros de la columna de mercurio.

La relación entre el barómetro y el tiempo reside en el hecho de que la presión atmosférica es lo que decide, en gran parte, el tiempo que hará. Si la presión atmosférica es muy alta, hará buen tiempo; si es muy baja, entonces el aire correrá desde otro punto donde la presión sea más fuerte; este desplazamiento del aire es el viento, y el viento puede producir la lluvia.

He aquí por qué el barómetro predice con bastante exactitud el tiempo; si no lo hace con mayor precisión, es porque la presión atmosférica no es la única causa de su variación.

Por lo demás, si bien como profeta del tiempo no siempre es digno de crédito, sus servicios para medir las alturas son excelentes. Dado que obedece a la menor presión atmosférica, si se aplica el barómetro a un instrumento de precisión especial, indicará con exactitud matemática a qué altura se encuentran el alpinista o el aviador que se sirvan de él.

baromtroEl barómetro más difundido es igual al tubo del instrumento de Torricelli, pero su extremo suele estar doblado en forma de U, en lugar de penetrar en una cubeta de mercurio.

Si hacemos flotar una bolita de hierro en la superficie del mercurio por la parte abierta del tubo, podrá adherirse a ella con facilidad un pequeño dispositivo con una aguja que nos indique la altura de la columna barométrica, señalada con las palabras: bien tiempo, estable, variable, lluvia, etc.

Existe otro tipo de barómetro que no tiene mercurio ni ningún otro líquido, llamado barómetro aneroide, que significa precisamente “sin líquido”. Consiste en una sencilla caja de metal, redonda y aplanada, dentro de la cual se ha hecho el vacío; la parte superior e inferior de la caja se aproximan entre sí, más o menos, según sea la presión atmosférica; un indicador de la medida de la presión, y aunque sus indicaciones no sean muy precisas, son, en todo caso, suficientes.

Si calentamos un barómetro corriente de los de mercurio, éste se dilatará, ocupando un mayor espacio en el tubo; por lo tanto, si deseamos obtener indicaciones exactas, debemos tener en cuenta también la temperatura. Por esto, a un buen barómetro va siempre unido un termómetro. Para fabricar un buen barómetro, es necesario hacer hervir antes el mercurio para librarlo al máximo del aire y del vapor acuoso; si se descuidase esta precaución, el aire y el vapor de agua ocuparían el vacío de Torricelli impidiendo el oportuno ascenso del mercurio.

La presión atmosférica se calcula en 1 kilo y 33 gramos por centímetro cuadrado; por lo tanto, cada centímetro cuadrado de nuestro cuerpo soporta este peso, tan considerable, que si sólo presionara hacia abajo nos aplastaría literalmente.

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

El Pararrayos de Benjamin Franklin Experiencia Barrilete Invento de

Benjamín Franklin, científico: (Boston, 17 de enero de 1706 – Filadelfia, 17 de abril de 1790) Filósofo, político, físico, economista, escritor y educador, figura clave en la Independencia de los Estados Unidos de Norteamérica, creó las bases de lo que hoy se entiende como «el ciudadano americano ejemplar».Era el decimoquinto de los hijos y comenzó a aprender el oficio de su padre, que era un pequeño fabricante de velas y jabón.

Cansado de este trabajo, se colocó a los 12 años en la imprenta de un familiar, desarrollándose así su amor a la cultura. El escaso tiempo libre lo empleaba en devorar todo tipo de libros que caían en sus manos.

Sus primeros versos y artículos los publicó en un periódico que su cuñado había fundado. A los 17 años, debido a discusiones con él, se traslada a Nueva York para hacer fortuna. Respaldado por el gobernador de Filadelfia, instala una imprenta y decide ir a Londres a comprar el material. Allí, olvidándose un poco de sus propósitos principales, trabaja en la imprenta Pelmer, conociendo a distinguidas personalidades.

PARARRAYOSEn cambio, el exceso atraía a la deficiencia, y el fluido eléctrico se vertía del exceso a la deficiencia, neutralizándose ambos y quedando descargados.

Franklin propuso que el exceso se llamara electricidad positiva, y la deficiencia, electricidad negativa. No se especificaba qué variedad de electricidad, la vítrea o la resinosa, era positiva y cuál negativa.

Franklin conjeturó arbitrariamente y se equivocó, pero eso es irrelevante. Pueden utilizarse los nombres y olvidarse los significados literales.

Franklin observó cómo se descargaba la botella de Leyden. Cuando la carga eléctrica se agotaba, emitía una chispa (luz) y un chasquido (sonido).

A Franklin le sorprendió la semejanza entre la chispa —un rayo en pequeño— y el chasquido —un pequeño trueno—. Entonces invirtió el razonamiento: durante una tormenta, ¿acaso tierra y cielo formaban una gigantesca botella de Leyden, y el rayo y el trueno significaban una descarga igualmente gigantesca?

Decidió experimentar. En 1751, hizo volar una cometa durante una tormenta. La cometa iba provista de una punta metálica a la que estaba unido un largo hilo de seda. Al final del hilo, cerca de donde se encontraba Franklin (que sujetaba el hilo de seda con un segundo hilo que permanecía seco), había una llave de metal.

Cuando se concentraron las nubes de tormenta y el hilo empezó a dar muestras de carga eléctrica (las fibras separadas se repelían unas a otras), Franklin puso el nudillo cerca de la llave, y ésta chisporroteó y crujió igual que una botella de Leyden. Además, Franklin cargó una de esas botellas sirviéndose de la llave, con la misma facilidad que si fuera una máquina de fricción.

La botella de Leyden cargada con electricidad del cielo se comportaba exactamente igual que si se hubiera empleado electricidad terrestre. O sea que ambas eran idénticas.

Franklin fue capaz de dar una inmediata aplicación práctica a su descubrimiento. Decidió que el rayo se abatía sobre un determinado edificio cuando éste almacenaba una carga durante una tormenta. Su experiencia con la botellas de Leyden le demostraba que éstas se descargaban con mucha mayor facilidad si se las proveía de una aguja.

Es decir, que la carga se disipaba con tanta rapidez a través de la aguja, que las botellas no podían ser cargadas a la primera. ¿Por qué no, entonces, fijar una varilla metálica puntiaguda en lo alto de un edificio y conectarla adecuadamente con el suelo, a fin de que cualquier carga que almacenara pudiera descargarse rápida y silenciosamente, y que ninguna carga se acumulara hasta el punto de desencadenar una descarga de consecuencias desastrosas?

Franklin publicó sus ideas sobre la materia en 1752 en Poor Richard’s Almanac, y en seguida empezaron a instalarse los pararrayos (líghtning rods, «varillas para el rayo»), primero en América y luego en Europa. Demostraron su eficacia, y por vez primera en la historia una catástrofe natural no se prevenía mediante la plegaria o los encantamientos mágicos de una u otra clase, que realmente nunca daban resultado, sino por la confianza en la comprensión de las leyes naturales, que sí era eficaz.

En cuanto los pararrayos aparecieron en los campanarios de las iglesias (que al ser el punto más elevado de la ciudad eran particularmente vulnerables), la cuestión quedó clara para todos.

PARA SABER MAS…

Aunque se lo recuerda sobre todo como hombre de estado, Benjamín Franklin realizó también valiosas contribuciones al conocimiento científico. Nació en 1706 y era el número quince de los hijos de una modesta familia de Boston. Fue, principalmente, autodidacto, pero asistió durante algún tiempo a la escuela local.

A la edad de 12 años era aprendiz de impresor. Cinco después dejó su ciudad natal para dirigirse a Filadelfia, donde continuó dedicado a ese trabajo. En 1729 se estableció y abrió con buen éxito su propia impresora, y compró la Pennsylvania Gazette. Poco después, inició su carrera política como secretario de la asamblea general de Pen-silvania. En 1751 fue elegido miembro de ésta Corporación y de 1753 a 1774 lo nombraron administrador general de correos de las  colonias norteamericanas.

Visitó Inglaterra en diversas ocasiones, a fin de negociar con el gobierno británico asuntos de interés para los colonos. Fue durante estos viajes cuando realizó una serie de experiencias que demostraron las características y el curso de la corriente del golfo de México, una corriente de agua templada que se dirige desde el golfo, por la costa este de Norteamérica, hacia el Norte, y en las costas de Newfoundland cambia de rumbo, hacia el Este y atraviesa el Atlántico.

Para levantar la carta de esta corriente, determinó la temperatura del agua del océano a diversas profundidades. Las naturalezas del trueno y del rayo habían interesado durante siglos a los científicos y a los filósofos, pero a Franklin 10 llevó este interés a investigarlas experimentalmente.

Para ello, preparó un barrilete, que fijó con un clavo al extremo de un cordel. Cerca del otro extremo lo prendió con una llave. Lanzó el barrilete cuando pasó sobre su cabeza un nubarrón-tormentoso y, en seguida, saltó de la llave una gran chispa eléctrica. Pudo ser algo muy peligroso, puesto que no había preparado ningún aislador en esta parte del cordel del barrilete.

Como la lluvia empapaba el cordel, ello incrementaba su conductividad eléctrica; la electricidad fluía libremente por dicha cuerda y pudo comprobar que poseía las mismas propiedades que la electricidad generada por fricción. El feliz resultado de esta experiencia condujo a la utilización de los pararrayos para proteger los edificios, especialmente los de más altura.

Realizó, además, otra contribución al estudio de la electricidad: demostró la existencia de cargas positivas y negativas. Aunque no está claro quién fue el inventor de las lentes bifocales, fue él ciertamente el primero que las describió. Antes, si una persona necesitaba dos clases de lentes para leer y para ver objetos lejanos, era forzoso que dispusiese de dos anteojos distintos. Sin embargo, esta dificultad fue superada al unir en un mismo cristal dos medias lentes diferentes.

La inferior proporcionaba los aumentos adecuados para la lectura y la superior, de menor aumento, se podía utilizar para enfocar objetos distantes. Franklin estaba demasiado entregado a las actividades políticas para poder prestar a las científicas las atenciones deseables. Ayudó a redactar la Declaración de la Independencia de los Estados Unidos y, poco después, en 1790, murió cuando abogaba por la abolición de la esclavitud de los negros.

El fin del eter de Aristoteles Quintaesencia llena el espacio Quinto

Durante el siglo XIX la idea de que la luz era un fenómeno ondulatorio estaba bastante afirmada. Las ondas que pueden observarse habitualmente a nivel macroscópico siempre son perturbaciones de algún medio material: las ondas de sonido son oscilaciones de las moléculas de aire, las ondas en un estanque son oscilaciones de las moléculas de agua, las ondas en una soga son oscilaciones de las moléculas que componen la soga, etc.

Por ese motivo resultó natural suponer que existía un medio material necesario para la propagación de las ondas luminosas. A este medio se lo llamó éter. Esta palabra ha tenido muchos usos a través del tiempo en explicaciones sobre la naturaleza, cuando se necesitaba postular la existencia de algún fluido que hiciera posible algún proceso (se ha hablado alguna vez de cierto éter que conduciría las sensaciones de una parte a otra del cuerpo humano).

El éter lumínico, de existir, debía tener propiedades muy particulares: ser lo suficientemente tenue como para llenar todos los espacios, incluso el interior de los cuernos transparentes o traslúcidos, y ser lo suficientemente rígido como para poder transmitir ondas de altísima frecuencia como las que conforman la luz. Los años pasaban y nadie podía diseñar una experiencia en la que se manifestara claramente la presencia del éter.

Si el éter llenaba también el espacio interestelar a lo largo de todo el Universo, esto hacía surgir una pregunta: ¿El mar de éter estaba fijo en el espacio y a través de éste se movían los astros sin perturbarlo, o cada planeta arrastraba el éter como si friera una atmósfera? La sistema de referencia absoluto respecto del cual se moverían todos los otros cuerpos. Y como la luz se propagaría a velocidad c en el éter estacionario, desde un cuerpo en movimiento, como la Tierra, se vería que la luz se mueve a distintas velocidades según lo haga en la misma dirección del movimiento terrestre, en sentido contrario o perpendicularmente.

Cuando el haz de luz viaja en la misma dirección y sentido que la Tierra, su velocidad relativa a ésta es c — y. Cuando viaja en una sentido contrario, su velocidad vista desde la Tierra es c + y.

En 1887, el físico Albert A. Michelson (1852-1931) diseíió un interferómetro y, junto con el químico Edward W Morley (1838-1923), realizó un experimento que debía mostrar la diferencia en las velocidades, vistas desde la Tierra, de dos rayos que se mueven en direcciones diferentes. Se usaban dos rayos provenientes de la misma fuente (para asegurar la coherencia), y luego de desplazarse en direcciones perpendiculares, se los hacia interferir.

La clave del experimento residía en que el patrón de interferencia debía cambiar si se rotaba el aparato con respecto a la dirección del movimiento de la Tierra.

El aparato original tenía muchos espejos para aumentar el camino recorrido por los rayos hasta unos 10 m, y así aumentar el efecto de interferencia. El dispositivo descansaba sobre una gran piedra que flotaba en mercurio.

El experimentador iba observando el patrón de franjas mientras hacía rotar lentamente la piedra. Hicieron miles de mediciones en diferentes puntos de la órbita terrestre y nunca notaron ni siquiera el mínimo corrimiento en el patrón de franjas. La orientación de los rayos de luz con respecto al movimiento de la Tierra no parecía afectar el movimiento de aquéllos. Algunos años más tarde, Michelson también investigó interferométricamente la posibilidad de que la Tierra arrastrara con ella al éter y demostró que esto tampoco era posible. La teoría del éter fue abandonada.

Usos de la Energía Nuclear Que es la energia nuclear? Conceptos Atucha

DESCRIPCIÓN DEL USO DE LA ENERGIA NUCLEAR

Los fundamentos de la física atómica

Historia de la Energia
Nuclear
Efectos De Una
Explosión Nuclear
Funcionamiento
De Una Central Nuclear

USOS DE LA ENERGÍA NUCLEAR –  PRINCIPIO FÍSICO DE SU GENERACIÓN

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energía empleada en el mundo. La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables. La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.

Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas. Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.

LA ENERGÍA ATÓMICA

Radiactividad natural: Descubierta accidentalmente por Henri Becquerel, en 1896, y estudiada en profundidad por Pierre y Marie Curie (fig. izquierda), a quienes se debe el nombre, la radiactividad natural es el fenómeno según el cual determinados materiales, como, por ejemplo, las sales de uranio, emiten radiaciones espontáneamente.

Las radiaciones emitidas son de tres tipos que se denominan alfa, beta y gamma, y tienen las siguientes características:

Las radiaciones alfa son poco penetrantes, ya que son detenidas por una hoja de papel y se desvían en presencia de campos magnéticos y eléctricos intensos. Están formadas por partículas cuya masa es de 4 u y cuya carga, positiva, es igual a dos veces la carga del electrón.

Las radiaciones beta son más penetrantes que las radiaciones alfa, aunque son detenidas por una lámina metálica. En realidad consisten en un flujo de electrones.

Las radiaciones gamma son muy penetrantes para detenerlas se precisa una pared gruesa de plomo o cemento. Son radiaciones electromagnéticas de alta frecuencia y, por lo tanto, muy energéticas.


Los rayos alfa buscan el polo negativo y los beta el positivo, pues cargas opuestas se atraen

Fuerzas nucleares

Como ya sabes, entre cargas eléctricas del mismo signo existen fuerzas eléctricas de repulsión. Si esto es así, ¿cómo es posible que los protones permanezcan unidos en un volumen tan reducido como el que tiene el núcleo?

Los protones y los neutrones se mantienen unidos en los núcleos debido a la acción de otro tipo de fuerzas distinto de las fuerzas eléctricas y de las fuerzas gravitatorias. Estas fuerzas, a las que llamaremos fuerzas nucleares, son de atracción y mucho más intensas que las fuerzas eléctricas.

Las fuerzas nucleares son de corto alcance, ya que se anulan cuando las distancias son superiores a unos pocos femtómetros (1 femtómetro =metros). A partir de esta distancia predominarán las fuerzas eléctricas, que tenderán a separar a los protones.

Estabilidad nuclear

Según la proporción entre protones y neutrones de un núcleo, éste es estable o no. Actualmente se conocen más de 300 núcleos estables. La radiactividad tiene su origen en la estabilidad nuclear. Si el núcleo es estable, el elemento no es radiactivo; pero cuando la relación entre los componentes del núcleo no es la adecuada, éste emite partículas y radiaciones electromagnéticas hasta alcanzar la estabilidad.
Se llaman isótopos radiactivos o radioisótopos todos aquellos isótopos que emiten radiaciones. Muchos elementos químicos tienen isótopos radiactivos cuyos núcleos emiten radiaciones y partículas de forma espontánea, a la vez que se transforman en núcleos de otros elementos. Así, por ejemplo, uno de los isótopos del carbono, el carbono- 14, es radiactivo y se transforma, espontáneamente, en un núcleo de nitrógeno.

Es posible conseguir que un núcleo estable se transforme en un radioisótopo. Si a un núcleo estable llega una partícula con suficiente energía, el núcleo puede desestabilizarse y volverse radiactivo para recuperar la estabilidad. Cuando esto sucede, se habla de radiactividad artificial, en oposición a la radiactividad espontánea o radiactividad natural.

Período de semidesintegración

Toda desintegración natural es un proceso aleatorio, es decir, no se puede predecir exactamente cuándo un núcleo determinado va a desintegrarse. Ahora bien, es posible calcular la probabilidad de que un núcleo se desintegre en un tiempo determinado. Con este fin se asocia a cada sustancia radiactiva una magnitud característica llamada período de semidesintegración.

El período de semidesintegración, de una sustancia radiactiva es el tiempo necesario para que se desintegre la mitad de los núcleos presentes en una muestra de dicha sustancia. Es decir, si tenemos una masa m de una sustancia y al cabo de 14 días tenemos la mitad (m/2) de esa sustancia (la otra mitad se ha desintegrado), diremos que su período de semidesintegración es de 14 días.

El período de semidesintegración varía para las distintas sustancias radiactivas desde millones de años a fracciones de segundo Sin embargo, cualquier sustancia radiactiva evoluciona en el tiempo ajustándose a una curva como la que se representa en la figura siguiente:

Curva de desintergración radiactiva

Períodos de semidesintegración de algunos isótopos

Como el período de desintegración del Radio 223 es de 8 días, tendrán que pasar unos 24 días para que la radioactividad de la muestra de este isótopo se reduzca a la octava parte (1/8)

Energía de enlace nuclear

Para calcular la masa de un cierto núcleo se multiplicará el número de protones que contiene por la masa de un protón, se multiplicará el número de neutrones por la masa de un neutrón y se sumarán ambas cantidades.

El núcleo de Li contiene tres protones y tres neutrones. La masa de un neutrón es de 1,6748 . 10-27 kg y la masa de un protón es de 1,6725 . 10-27 kg. En consecuencia, cabría esperar que la masa de este núcleo fuera de 10,0419 . 10-27 kg. Sin embargo, la masa de un núcleo de litio, 9,9846 10-27kg., es menor que la calculada sumando las masas de los tres protones y los tres neutrones que lo constituyen. El defecto de masa es de 0,0573 . 10-27 kg.

Defecto de masa en el núcleo de Litio

Este hecho se repite para todos los núcleos atómicos. La masa de un núcleo atómico es menor que la que se obtiene cuando se suman las masas de los protones y los neutrones que lo constituyen. La diferencia entre ambos valores recibe el nombre de defecto de masa.

El defecto de masa se produce porque parte de la masa de los protones y neutrones se transforma en energía cuando dichas partículas se unen para formar un núcleo atómico.

A partir de este hecho se define una nueva magnitud, la energía total de enlace nuclear, que es la energía que se desprende en la formación de un núcleo a partir de los nucleones que lo forman. Para el núcleo de litio, dicha energía es de 32 MeV. (nota 1 electronvoltio (eV) es la energía cinética que adquiere un electrón al someterse a una diferecia de potencial de 1 voltio. Dicha energía es de 1.6 . 10-19 Julio. Un MeV equivale a un millón de eV)

Los procesos en los que se modifican los núcleos de los átomos reciben el nombre de reacciones nucleares. En las reacciones nucleares, pequeñas cantidades de masa se transforman en grandes cantidades de energía, de acuerdo con la equivalencia establecida por Einstein.
E = m.c2

donde E es la energía desprendida, m es el defecto de masa y e es la velocidad de propagación de la luz en el vacío. Debido al elevado valor de e, a partir de una pequeña cantidad de materia es posible obtener una enorme cantidad de energía

Albert Einstein (1879-1955)

La fisión nuclear:

Determinados núcleos pesados, como, por ejemplo, el núcleo de uranio-235, se rompen en dos núcleos intermedios cuando se bombardean con neutrones. En este proceso, conocido como fisión nuclear, también se emiten otras partículas, además de radiación y una gran cantidad de energía.

De la fisión de un núcleo de uranio-235 se obtiene un átomo de bario-142, un átomo de criptón-91, 3 neutrones y una energía de 210 MeV que se desprende en forma de calor. La ecuación que describe el proceso es la siguiente:

235U + 1 neutrón —-> 142Ba + 91Kr + 3 neutrones + 210 MeV

La masa del núcleo de uranio-235 sumada con la masa del neutrón es ligeramente superior a la suma de las masas del núcleo de bario- 142, el núcleo de criptón-91 y los tres neutrones. Este pequeño defecto de masa se ha transformado en energía.

Los neutrones que se obtienen en la fisión de un núcleo de uranio-235 pueden utilizarse para bombardear otros núcleos de este isótopo y provocar nuevas fisiones que a su vez producirán nuevos neutrones, y así sucesivamente. Se origina de este modo una reacción en cadena mediante la cual, en un tiempo muy breve, se consigue la fisión de un gran número de núcleos y se libera una enorme cantidad de radiación y energía.

Reacción en cadena

 

La fusión nuclear

Una reacción de fusión nuclear es un proceso según el cual se unen núcleos ligeros o intermedios para formar núcleos más pesados, obteniéndose energía.

La fusión de un núcleo de deuterio, 2H, con un núcleo de tritio, 3H, da lugar a la formación de un núcleo de helio-4, 4He, además de un neutrón y una energía dc 17,6 MeV, que se desprende en forma de calor. Esta es una de las reacciones mediante las que el Sol produce energia. La ecuación que describe el proceso es la siguiente:

2H + 3H —-> 4He+ 1 neutrón +  17,6 MeV

Las centrales nucleares

La generación de electricidad es el empleo más importante de la energía liberada en una fisión nuclear. Para ello es necesario controlar la reacción de fisión en cadena; hace falta un sistema que impida que el número de fisiones por unidad de tiempo sobrepase ciertos límites. Esto se logra mediante el reactor nuclear Un reactor nuclear consiste básicamente en un recipiente en cuyo interior se encuentra el combustible nuclear (uranio o plutonio). Dicho combustible se suele introducir en forma de pastillas encapsuladas en una serie de vainas metálicas ,rodeadas por un material moderador, que forman el interior del reactor. Para el control de la reacción existen unas barras deslizantes, compuestas de un material capaz de absorber neutrones (boro o grafito).

Según se introduzcan más o menos barras de control en el interior del reactor, el número de neutrones absorbidos será mayor o menor, de este modo se puede controlar el número de fisiones que ocurren por unidad de tiempo. Si las barras se introducen totalmente, la reacción de fisión se detiene. Todo el conjunto del reactor se halla encerrado por el blindaje biológico, que es una envoltura de metal y hormigón cuya finalidad es impedir el paso de la radiación o gases contaminantes o radiactivos al medio ambiente.

La energía liberada por la fisión del combustible se manifiesta en forma de calor, que se extrae mediante un refrigerante que suele ser agua y que, a causa del calor recibido, se convierte en vapor a alta presión. El vapor así producido es utilizado para mover turbinas que están acopladas a los generadores eléctricos, posteriormente es enfriado y forzado a circular nuevamente dentro del reactor mediante bombas.

Cuando el combustible empleado es el uranio, puede presentarse en dos variedades: uranio natural o uranio enriquecido. El uranio natural contiene una pequeña proporción de átomos de uranio-235, que es el único que puede fisionar en el reactor. Por ello es necesario mejorar sustancialmente la eficiencia del reactor, sobre todo en lo que hace a la absorción indeseada de neutrones, esto encarece la estructura del reactor pero generalmente se compensa con el bajo costo del uranio natural. Por el contrario, el uranio enriquecido presenta una proporción mucho más alta de átomos de uranio-235, que se logra mediante un costoso proceso de refinamiento químico.
El uranio-235 va desapareciendo del combustible debido a las fisiones; después de cierto tiempo de funcionamiento del reactor es necesario recambiar el combustible. Esta operación se logra sacando algunas de las vainas que contienen el combustible y reemplazándolas por otras con combustible nuevo.

La generación de electricidad mediante reactores de fisión nuclear presenta grandes ventajas pero también serios inconvenientes. Entre las ventajas, las más importantes son que no producen contaminación directa de la atmósfera dado que no hay emisión de gases de combustión y que no dependen del suministro de combustibles fósiles que eventualmente han de agotarse. Los inconvenientes tienen que ver con el tipo de residuos que produce su operación, que consisten en material radiactivo (cuya peligrosidad persiste durante muchos miles de años), por esta razón es muy difícil su tratamiento. Además, hay que destacar las consecuencias extremadamente graves que tienen para las personas y el medio ambiente los eventuales accidentes que pueden ocurrir, y han ocurrido, en las centrales nucleares. Estas características compiten firmemente entre sí y hacen que el empleo de las centrales nucleares tenga tantos fervientes defensores como opositores.

Esquema reactor nuclear

La fusión nuclear se presenta como una fuente energética alternativa con muchos menos inconvenientes que la fisión y tantas o más ventajas. Actualmente, la construcción de una central nuclear en base a la fusión se presenta como un serio desafío tecnológico. La fusión se ha logrado en el laboratorio en condiciones muy especiales que no pueden ser llevadas a la escala necesaria para construir una central nuclear que sea económicamente rentable, es decir, que entregue más energía que la que consume y lo haga a un costo que compita con otros mecanismos de generación.

El problema fundamental radica en que la única forma conocida de lograr fusión es comprimir un gas altamente recalentado, a temperaturas superiores a los millones de grados. Este proceso se logra mediante dispositivos llamados botellas magnéticas.

Recientemente, a principios de 1989, dos científicos reportaron haber descubierto un mecanismo mediante el cual se podía lograr la fusión nuclear a temperatura ambiente. El anuncio revolucionó a la comunidad científica internacional por las espectaculares consecuencias que esto tendría y se denominó fusión fría al fenómeno. Lamentablemente, pese a que innumerables grupos de investigadores de todo el mundo trataron de repetir el proceso, ninguno logró resultados positivos y actualmente se sospecha que los experimentos originales estuvieran mal hechos.

La datación arqueológica

La datación de una muestra arqueológica es el procedimiento por el cual se determina su antigüedad. El más conocido es el que emplea el isótopo carbono-14 y que permite determinar la edad de restos fósiles o piezas fabricadas por el hombre de hasta 50.000 años de antigüedad.
El carbono está presente en la atmósfera terrestre, formando dióxido de carbono, en tres variedades isotópicas: el carbono-12, -13 y -14. El carbono-12 y -13 son estables, sin embargo el segundo es muy raro: tan sólo 1 de cada 100 átomos de carbono es carbono-13. En cambio, el carbono-14 es radiactivo con un período de semidesintegración de 5700 años.

Al desintegrarse, el carbono-14 se transforma en nitrógeno-14 y emite radiación Beta y debería desaparecer paulatinamente de la atmósfera. Sin embargo, si bien se lo encuentra en proporción escasísima, hay evidencia de que ésta ha permanecido casi inalterada por muchas decenas de miles de años. Esto es debido a que también existe un mecanismo por el cual se forma carbono-14 a partir del nitrógeno-14. Este hecho tiene lugar en las capas más altas de la atmósfera y consiste en la transmutación del nitrógeno-14 en carbono-14 producida por la radiación cósmica. El carbono-14 así formado se combina con el oxígeno para dar dióxido de carbono y es transportado a las capas más bajas de la atmósfera por las corrientes de aire. Estos dos mecanismos, el de desintegración y el de creación, han llegado a un equilibrio: la cantidad de carbono-14 que se desintegra durante cierto tiempo es igual a la que se crea en ese tiempo. De tal modo la abundancia de carbono-14 en la atmósfera permanece constante.

Como bien sabes, durante el proceso de fotosíntesis las plantas toman dióxido de carbono de la atmósfera y asimilan el carbono a su organismo. Por este motivo, una parte del carbono que hay en las plantas será carbono-14. Cuando la planta muere, el carbono-14 de su organismo comienza a desaparecer lenta pero inevitablemente, debido a su desintegración.

El resultado de este complicado mecanismo es: ¡un fósil vegetal tiene incorporado su propio reloj! Para saber el tiempo que ha trascurrido desde su muerte bastará con medir la abundancia de carbono-14 que hay en él y que será tanto menor cuanto más tiempo haya transcurrido. Los físicos han podido establecer cuál es la ley que sigue esta disminución y confeccionaron tablas de la abundancia en función del tiempo. Por lo tanto, una vez conocida esa abundancia bastará con comparar el valor medido con esa tabla para saber la edad del fósil.

Como ya te imaginarás, este fenómeno que afecta el carbono que hay en las plantas también afecta a los animales pues, en algún paso de la cadena alimentada, ellos se nutren de las plantas. También afecta la composición del suelo, pues en la mayor parte de los casos las plantas al morir se integran a él. También a los utensilios y objetos creados por los hombres primitivos, como las vasijas de barro. Por estas razones, este método de datación sirve para analizar una variedad muy grande de muestras. Debemos decir, sin embargo, que falla cuando se trata de determinar edades de más de 50.000 años, en cuyo caso se emplean otros métodos.

Utilización en medicina y otras áreas
Aprovechando la acción destructiva de las radiaciones sobre la materia, los radioisótopos se emplean en medicina en el tratamiento contra el cáncer, radiando con cobalto-60 los tumores que se quieren eliminar .También se emplean en la esterilización de material médico y quirúrgico.

 Los radioisótopos pueden introducirse en un organismo vivo o en cualquier otro material y puede seguirse su trayectoria a través de él. Por ello se emplean como trazadores o marcadores en investigaciones médicas, químicas, industriales, etc. Por ejemplo, el isótopo yodo -131 se utiliza en medicina para diagnosticar enfermedades de la tiroides. En química y biología, los isótopos radiactivos se utilizan para realizar estudios sobre velocidad y mecanismo de reacciones. En la industria, se emplean para localizar fugas en el transporte de fluidos, por ejemplo, en un oleoducto.

Desventajas del uso de radioisótopos
En contrapartida a su utilidad, el manejo de materiales radiactivos plantea problemas de difícil resolución. Entre ellos se destacan la eliminación de los residuos radiactivos que se producen y el control de la seguridad de las personas encargadas de su manipulación y de las comunidades próximas a las instalaciones nucleares. De hecho, un accidente nuclear de la magnitud del ocurrido en la central de Chernobil puede haber afectado, según algunas estimaciones, la salud de más de medio millón de personas, sin contar las enormes pérdidas materiales que ha originado.
(VER DESCRIPCIÓN DEL PROCESO DE LA FISIÓN DEL URANIO)

Los beneficios de la energía nuclear
La energía nuclear es cuestionada debido a los daños que puede causar al ambiente y a los seres vivos si no existe un control estricto de los reactores nucleares y de los desechos radiactivos, y por su utilización en la fabricación de armamento altamente destructivo. Sin embargo, la energía nuclear puede tener múltiples usos beneficiosos para la humanidad, no solo en la generación de energía eléctrica —una fuente de energía menos contaminante que el petróleo o el carbón—. sino también por su aplicación en otras áreas de la actividad científica y productiva. Entre ellas:

1 | Agricultura y alimentación
a) Control de plagas. En la llamada técnica de los insectos estériles se suministran altas emisiones de radiación para esterilizar insectos machos en laboratorio y que no dejen descendencia al aparearse. De este modo es posible controlar su población sin utilizar productos químicos nocivos.

b) Mutaciones. La irradiación aplicada a semillas permite cambiar la información genética de ciertas variedades de vegetales para obtener nuevas variedades con características particulares.

c) Conservación de alimentos. Las radiaciones son utilizadas para eliminar microorganismos patógenos presentes en los alimentos y aumentar, de este modo, su período de conservación.

2 | Hidrología
Mediante técnicas nucleares, es posible desarrollar estudios sobre los recursos hídricos. Por ejemplo, caracterizar y medir corrientes de aguas, fugas en embalses, identificar el origen de las aguas subterráneas, etcétera.

3 | Medicina
Se utilizan radiaciones y radioisótopos como agentes terapéuticos y de diagnóstico. En el diagnóstico, se utilizan fármacos radiactivos para estudios de tiroides, hígado, riñon, para mediciones de hormonas, enzimas, etcétera. En terapia médica se pueden combatir ciertos tipos de cáncer con resultados exitosos, especialmente cuando se detectan tempranamente.

4 | Medio ambiente
Se utilizan técnicas nucleares para la detección y análisis de diversos contaminantes del medio ambiente.

5 | Industria e investigación
a) Trazadores. Se elaboran sustancias radiactivas que son introducidas en un determinado proceso y, luego, se detecta la trayectoria de la sustancia por su emisión radiactiva. En el ámbito de la Biología, la introducción de compuestos radiactivos marcados ha permitido observar las actividades biológicas hasta en sus más mínimos detalles.

b) Imágenes. Es posible obtener imágenes de piezas utilizando radiografías que reciben el nombre de gammagrafía y neutrografía. Por ejemplo, se puede comprobar la calidad en piezas cerámicas, detectar la humedad en materiales de construcción, etcétera.

a) Datación. Se emplean técnicas isotópicas para determinar la edad en formaciones geológicas y arqueológicas. Por ejemplo, se utiliza la técnica de carbono-14, para determinar la edad de fósiles.

CRONOLOGÍA

1938 — Otto Hahn, Lise Meitner y Fritz Strassman descubren en Alemania la fisión nuclear del uranio.

1942 — Primera reacción nuclear en cadena en un laboratorio de Chicago dirigido por Enrico Fermi.

1945 — El bombardero Enola Gay lanza la primera bomba atómica de fisión nuclear sobre la ciudad japonesa de Hiroshima. Poco después, los Estados Unidos lanzan la segunda sobre Nagasaki.

1949 — La Unión Soviética realiza su primera prueba nuclear en Kazajstán.

1952 — Estados Unidos hace explotar su primera bomba de fusión nuclear en el atolón de Bikini, en el Océano Pacífico. Los británicos realizan su primera prueba en las islas australianas de Monte Bello.

1956 — Gran Bretaña pone en marcha su primera central nuclear comercial, en Sellafield, con una potencia de 50 Mw. Francia pone en marcha su primera central nuclear experimental, en Marcoule, en el departamento de Chusclan, en el Gard, con una potencia de 7 Mw.

1959 — Francia pone en marcha dos nuevos reactores nucleares en Chusclan, de 40 Mw cada una.

1960 — Francia realiza su primer ensayo nuclear en el desierto del Sahara.

1968 — España construye su primera central nuclear de las nueve que posee actualmente, se llama José Cabrera y se encuentra en el término municipal de Almonacid de Zorita, en Guadalajara, junto al río Tajo, con una potencia de 160 Mw.

Fuente Consultada: Físico Químico de Pilar Escudero y Otros