La Fisión Nuclear

Fuerzas en un Plano Inclinado Descomposicion del Peso

FUERZAS EN UN PLANO INCLINADO
Descomposición de un Peso en un Plano Inclinado

EL PLANO INCLINADO: este tipo de máquina simple se utiliza muy a menudo para cargar o descargar cuerpos pesados sobre una plataforma, por ejemplo cuando queremos cargar el acoplado de un camión.

No es lo mismo levantar el peso total del cuerpo verticalmente, que hacerlo sobre una superficie inclinada, pues al colocar el peso sobre dicha superficie aparecen nuevas fuerzas en juego que ayudaran a realizar el trabajo.

Estas fuerzas pueden observarse en la figura de abajo, que pronto vamos a estudiar su valor, y que logicamente dependen del peso del cuerpo.

Antes vamos a decir que también ayuda a bajar los cuerpo, pues si soltaríamos el objeto sobre la vertical del acoplado de un camión el mismo caería al piso con todo su peso y tendría grandes posibilidades de romperse, en cambio, al soltarlo sobre el plano inclinado una fuerza que tiene la dirección del plano y con sentido hacia abajo lo llevará lentamente hasta el piso.

Hay que aclarar que entre el objeto y el plano hay una fuerza de rozamiento (que no está dibujada) con sentido contrario al moviento, es decir hacia arriba, entonces para moverse la fuerza Px deberá ser mayor a la de rozamiento. (ya lo estudiaremos).

Sigamos ahora con el caso mas simple , sin rozamiento, y analicemos las dos fuerzas que aparecen, que resultan de la descomposición del peso P en dos direcciones, una paralela al plano, llamada Px y otra perpendicular, llamada Py.

Como se observa, y Ud. debería analizarlo, el ángulo de inclinacion del plano que se llama @ , es el mismo que existe entre el peso P y Py. (se puede estudiar aplicando la teoría de triángulos semejantes).

Al descomponerse el peso P en dos direcciones perpendiculares, es como si P desapareciera para siempre, y de aqui en mas solo trabajaremos con sus componentes Px y Py.

Para obtener el valor de ambas fuerzas usaremos la figura de abajo y aplicaremos trigonometría, las famosas funciones seno y coseno.

Para hallar las omponentes observemos la descoposción gráfica y aparece un triángulo rectángulo que llamalos ABO, en donde el ángulo B=90°, [email protected] (inclinación del plano), entonces según las reglas de la trigonometría podemos escribir lo siguiente:

sen(@)=Px/P ====> Px=P. sen(@)=m.g.sen(@)=Px , la componente sobre el eje x

cos(@)=Py/P ====> Py=P. cos(@)=m.g.cos(@)=Py , la componente sobre el eje y

Resumiendo podemos decir, que para obtener el valor de las componentes de las fuerzas en que se descompone un peso sobre un plano inclinado solo debemos tener como datos: el peso P y el angulo de inclinación @.

Si no tenemos dicho ángulo podemos usar como alternativa (y en la mayoría de los casos en así) las dimensiones del plano, y obtener directamente el seno y coseno de @.

Podemos escribir que: sen(@)=h/L (longitud inclinada) y cos(@)=l/L y listo. Hallando la función inversa arco seno o arco coseno, podemos calcular el valor del ángulo, pero generalmente no hace falta.

La fuerza Px no llevará el cuerpo hacia abajo, hasta el piso, pero bien que pasa con la fuerza Py hacia abajo normal al plano?….como en cuerpo no se mueve en esa dirección significa que hay algo que lo evita y justamente es la reacción en la superficie de contacto, pues aparece por la 3° ley de Newton una reacción que es de igual magnitud a Py, pero de sentido contrario, y que se anulan entre si, y no hay movimiento en ese sentido.

Oberva la figura de abajo, la fuerza color verde, es la reacción del plano.

Ejemplo: el peso de una caja es de 1200 Newton y se apoya sobre un plano que tiene 3 m. de largo y asciende 1,75 m. Determine el valor de las componentes del peso sobre el plano.

1) Tenemos el peso en Newton, que es 1200 y por lo tanto: m.g=1200

2) No tenemos el ángulo pero sabemos que: sen(@)=1,75/3= 0,58 y que cos(@)=l/L=l/3, nos falta l.

Para calcular l, usamos el teorema de Pitágoras, pues l=es el cateto mayor del triángulo, y dá: 2,44 m, ósea cos(@)=2.44/3=0,813

Ahora hallamos: Py=1200 . 0,81=976 Newton y Px=1200 . 0,58=700 Newton

A la fuerza de 976 N la absorbe el plano, de lo contrario se rompe el material y la otra hacia abajo de 700 moverá el bloque hasta el piso, o si lo debemos cargar, habría que empujarlo hacia arriba con una fuerza de 700 N., ósea, 500 N menos que si quisieramos levantarlo verticalmente, sin usar el plano.

Ver Una Animacion de Flash

TEORÍA SOBRE PLANO INCLINADO: Una máquina tiene por objeto utilizar ventajosamente energía para producir trabajo.

En general, la máquina proporciona un modo más fácil de hacer el trabajo, pero en ningún caso se puede conseguir de la máquina más trabajo que el que se le, suministra. Oros post en este sitio sobre palancas y poleas han demostrado que es posible, en comparación, levantar grandes pesos mediante la aplicación de fuerzas pequeñas.

El plano inclinado es otro medio para levantar un gran peso con facilidad. Es especialmente útil para cargar barriles y toneles, puesto que se pueden rodar hacia arriba por la pendiente. Este método se usa, actualmente, para cargar barriles de cerveza en carros y camiones de reparto, pero hace tiempo se utilizó mucho más ampliamente.

El plano inclinado debe de haber sido una de las pocas máquinas que el hombre tenía en la antigüedad. Por ejemplo, los primitivos egipcios utilizaron las pendientes en gran escala para la construcción de las pirámides.

Se requiere una fuerza mayor para mover la carga en un plano con fuerte ángulo de inclinación que en otro menos inclinado. Sin embargo, el trabajo total que se requiere para levantar la carga a una misma altura es el mismo, cualquiera que sea el ángulo de inclinación del plano. Por otra parte, se ha de realizar un trabajo adicional para vencer las fuerzas de fricción entre la carga y el plano, y éstas son menores cuanto mayor sea el ángulo de inclinación del plano con la horizontal.

El cociente de velocidad de cualquier máquina se obtiene dividiendo la distancia a lo largo de la cual se traslada la fuerza aplicada (o esfuerzo) por la altura a la cual se eleva la carga. Como en las otras máquinas, el cociente de velocidad de un plano inclinado se calcula a partir de sus dimensiones.

Por lo tanto, si no hubiera resistencia debida a rozamientos, una carga de 100 Kg. se podría subir por el pleno con un esfuerzo de 25 Kg. Pero en la práctica sería de 35 Kg. a 45 Kg., según la naturaleza de las superficies.

La distancia que recorre la fuerza aplicada es la distancia a lo largo del plano, mientras que la distancia a la cual se eleva la carga es la altura a la que se encuentra.

Puesto que las fuerzas de fricción, o rozamiento, tienen un efecto mucho mayor en el rendimiento del plano inclinado que en otras máquinas (especialmente poleas), se gana muy poco intentando calcular la ventaja mecánica (carga/esfuerzo) a partir de consideraciones teóricas.

Es más conveniente encontrar experimentalmente la ventaja mecánica, y utilizarla como un medio de calcular la magnitud de las fuerzas de rozamiento.

Los rodillos del plano disminuyen el rozamiento, haciendo mas fácil la subida al camión.

La fricción por la acción de rodar que se experimenta al cargar barriles (y otros objetos de sección circular) es pequeña si se compara con la fricción de deslizamiento que se debe vencer cuando se empujan cajas (o se tira de ellas) por un plano inclinado. Por esta razón, el plano inclinado se ha utilizado durante muchos años para cargar barriles.

Recientemente, sin embargo, el trabajo adicional necesario para cargar cajas se ha reducido considerablemente, mediante el empleo de planos inclinados provistos de rodillos metálicos. En este caso, los rozamientos se han reducido al cambiar la fricción de deslizamiento por fricción de rodadura.

Fuente Consultada:
Revista TECNIRAMA N°48 Enciclopedia de la Ciencia y La Tecnología -Plano Inclinado-

Leyes de la Teoría Atómica Masa Atómica Mol N° de Avogadro

CONCEPTOS Y LEYES DE LA TEORÍA TÓMICA:

ELEMENTO Y COMPUESTO QUÍMICO, LEYES  FUNDAMENTALES, MASA ATÓMICA, MOL E HIPÓTESIS DE AVOGADRO

Pocas sustancias extraídas de la tierra pueden utilizarse sin elaboración previa. Los 92 elementos puros que las componen se combinan entre sí de diversos modos.

La industria procura separar las sustancias naturales en sus componentes fundamentales y volver a unirlos formando combinaciones más útiles. La civilización actual sólo fue posible cuando los químicos descubrieron cómo lograrlo.

El montoncito de azufre de abajo representa una de las pocas sustancias halladas en la naturaleza cuyos átomos son de la misma clase. El azufre es un elemento. Existen 92 de ellos y además hay 11 obtenidos artificialmente.

azufre

La enorme mayoría de las sustancias puras son combinaciones de dos o más elementos químicos y reciben el nombre de compuestos. ¿Cómo se unen los elementos entre sí? .

Para poder separar los compuestos en sus elementos y hacerlos combinar nuevamente, los químicos tuvieron que encontrar la respuesta a esta pregunta.

Se ha descubierto que cuando dos elementos químicos se combinan, los átomos de uno se unen a los del otro.

Un átomo, que es la más pequeña porción posible de un elemento, consiste en un núcleo central rodeado por uno o más electrones, sumamente pequeños, que giran a su alrededor como los planetas en torno al Sol.

atomo interno

Los electrones desempeñan un papel esencial en la unión de los átomos. Dos átomos se combinan cuando comparten sus electrones exteriores, que entonces giran alrededor de ambos núcleos.

Se llama molécula a esta combinación de átomos (aunque no es necesario que sean precisamente dos).

Hay «macromoléculas» formadas por muchos átomos, como las de las proteínas, el caucho, los plásticos y las fibras textiles naturales o sintéticas.

En  la figura de abajo se muestra un átomo de carbono (medio) y otro de oxígeno. Se puede hacer que dos átomos de oxígeno compartan sus electrones exteriores con un átomo de carbono.

atomos de carbono y oxigeno

El resultado de esta combinación es una molécula de bióxido de carbono o anhídrido carbónico. Al combinarse, los átomos pierden por completo sus propiedades distintivas. La molécula es diferente de las dos clases de átomos que la componen.

LAS  BASES DE  LA TEORÍA ATÓMICA
Juan Dalton marca la génesis de la primera teoría atómica moderna: la idea de un átomo específico para cada elemento químico.

Dalton (1766-1844) fue el primero que fundó sus teorías sobre los resultados de sus experimentos. En esta época se había llegado a la conclusión de que la materia consistía de varios elementos simples que, al unirse entre sí, formaban sustancias químicas complicadas.

dalton teoria atomica

Dalton afirmó que cada elemento consistía de muchos átomos idénticos entre si, pero diferentes de los de los ctros elementos; v que todos los átomos eran indivisibles.

Dalton comprendió que los átomos de los distintos elementos se combinaban entre sí de modo especial. Los compuestos químicos construidos de este modo siempre contienen los mismos átomos en el mismo orden y proporción.

Preparó un «código» en base a símbolos gráficos que utilizaba para representar la fórmula o «receta» por el peso de los diferentes compuestos químicos.

CONCEPTO DE ELEMENTO QUÍMICO, COMPUESTO Y MEZCLA: Se llama elemento químico a aquella sustancia cuyos átomos son todos de la misma clase (azufre, carbono, oxígeno, litio, calcio, etc.).

Pero esto no es lo común, porque los átomos tienen gran tendencia a unirse entre sí, sea con átomos de la misma naturaleza, sea con átomos diferentes.

Muchos elementos son metales como el oro, pero otros como el azufre o el fósforo no lo son; los hay sólidos, los hay líquidos, los hay gaseosos. La química estudia a fondo y explica todas estas propiedades.

Los compuestos son sustancias formadas por dos o más elementos diferentes. Estos elementos no están simplemente mezclados; cada átomo de uno de ellos está atado fuertemente a otro o a otros átomos de elementos distintos, de modo que forma otra clase de sustancia.

El agua es un buen ejemplo, porque consiste en dos átomos de hidrógeno unidos a un átomo de oxígeno, de ahí su fórmula H2O.

Y el agua es un líquido a pesar de que el hidrógeno y el oxígeno son gases. La menor partícula imaginable de  un compuesto se llama molécula y siempre contiene exactamente los átomos que le corresponden, en la proporción debida.

Ahora bien, ocurre que no todos los átomos tienen el mismo peso; los hay livianos, los hay pesados.

De allí que cuando descomponemos una combinación de elementos obtenemos relaciones que no siempre son simples, pero que se vuelven muy sencillas cuando tenemos en cuenta los pesos particulares de los átomos.

Lo que debe tenerse bien en cuenta es que una molécula es totalmente distinta de los elementos que contiene y que éstos, al unirse los átomos, pierden sus propiedades individuales, es decir, el comportamiento típico que permite reconocerlos.

Las mezclas son simplemente elementos, o compuestos, o ambos, reunidos, en proporciones cualesquiera. Poseen las propiedades de sus ingredientes y pueden generalmente ser separados por medios muy sencillos.

El barro, p. ej., es una mezcla de tierra y de agua; el aire es una mezcla de nitrógeno y oxígeno. Las  mezclas no son nuevas clases de sustancias.

Introduciendonos mas científicamente en el tema, debemos decir que hay dos leyes fundamentales de la química que rigen las reacciones quimicas entre elementos químicos y sustancias (moléculas), una es la llamada «conservación de la masa» y la otra la «ley de las proporciones definidas» que dicen:

1-Ley de la Conservación de la Masa: «En todas las reacciones químicas se cumple que la suma de las masas de las sustancias con las que se inicia una reacción química es igual a la suma de las masas de las sustancias que resultan de ella (ley de conservación de la masa para las reacciones químicas)».

2-Ley de las Proporciones Definidas: «Cuando dos o más elementos químicos se combinan para formar un determinado compuesto, lo hacen según una relación constante entre sus masas».

De esta última también se desprende que: Inversamente, cuando un determinado compuesto se separa en los elementos que lo componen, las masas de estos elementos se encuentran en una relación constante que es independiente de la fuente de procedencia del compuesto o del modo en que haya sido preparado.

Explicación de Ejemplo: Como la «receta química» o fórmula del anhídrido carbónico es CO2, es decir, un átomo de carbono y dos de oxigeno, podríamos pensar que dos terceras partes de su peso son de oxígeno y el tercio restante de carbono, osea aproximadamente 30 gr. de oxígeno y 14 de carbono, pero no es así.

Si descomponemos 44 gr. de anhídrido carbónico obtendremos 32 gr. de oxígeno y solamente 12 de carbono. La explicación consiste en que los distintos átomostienen pesos atómicos diferentes. El carbono es más liviano que el oxígeno. Prácticamente todo el peso del átomo está concentrado en el núcleo (protones+neutrones).

El núcleo del átomo de hidrógeno (el más liviano) es una partícula simple llamada protón; el núcleo de cualquier otro átomo es una mezcla de dos tipos de partículas: protones y neutrones. Los pesos de ambas son similares, pero mientras el protón lleva una carga eléctrica positiva, el neutrón no posee carga alguna.

El núcleo de un átomo de oxígeno contiene 8 protones y 8 neutrones o sea 16 partículas, por lo que es 16 veces más pesado que el átomo de hidrógeno. Como el peso real de cualquier átomo es increíblemente pequeño, se prefiere utilizar una escala de pesos completamente diferente, cuya unidad es el protón. Así, el átomo de oxígeno con sus 16 partículas pesa 16 unidades. El carbono posee 12 partículas (12 unidades) en el núcleo: su «peso atómico» es 12.

Se entiende que 16 gramos de oxígeno contendrán el mismo número de átomos que 12 gramos de carbono, puesto que la proporción de los pesos en gramos es la misma que la de los átomos individuales. Como la fórmula del anhídrido carbónico exige el doble de átomos de oxígeno que de carbono, serán necesarios 2 x 16 — 32 gr. de oxígeno. Combinándolos con los 12 gr. de carbono obtendremos 12 gr. + 32 gr. = 44 gr. de anhídrido carbónico.

Veamos otro ejemplo: El gas llamado bióxido de azufre o anhídrido sulfuroso (SO2), que se produce cuando se quema azufre, es decir, cuando el azufre se combina con el oxígeno. Su «receta» o fórmula es un átomo de azufre por cada dos átomos de oxígeno, de modo que si queremos producirlo quemando directamente azufre én oxígeno deberemos disponer un átomo o medida de azufre por cada dos de oxígeno.

Ya sabemos que dos medidas de oxígeno equivalen a 32 gr: Como el peso atómico del azufre es 32, una medida de azufre equivaldrá a 32 gr. El resultado es 32 gr.+ 32 gr. = 64 gr. de anhídrido sulfuroso, de fórmula SO2. Si colocásemos demasiado azufre o demasiado oxígeno, luego del experimento el excedente quedaría sin utilizar.

LEYES DE LA TEORÍA ATÓMICA: Con lo que hemos visto hasta el momento somos capaces de decidir si una sustancia es un elemento químico, un compuesto químico o una mezcla.

También podemos calcular la cantidad de reactivos que necesitamos combinar para obtener una cierta cantidad de producto. Sin embargo, todavía no disponemos de una teoría que sea capaz de explicar todos estos conocimientos.

Esta teoría, conocida como teoría atómica, fue enunciada, en los primeros años del siglo XIX. por el químico inglés John Dalton, aunque sería modificada posteriormente gracias a las aportaciones del químico italiano Amadeo Avogadro. Sus ideas principales se pueden resumir de la siguiente manera:

a)  La materia es discontinua. Es decir, los cuerpos están formados por partículas independientes llamadas átomos.

b)  Existen distintos tipos de átomos. Un elemento químico es una sustancia formada por un solo tipo de átomos. Los átomos de un determinado elemento químico son iguales entre sí, pero son distintos de los átomos de los restantes elementos.

c)  Una molécula es la parte más pequeña de una sustancia pura (o compuesto) capaz de existencia individual estable. Unas moléculas se diferencian de otras por el número y tipo de los átomos que las forman, así como por la manera en la que dichos átomos están colocados.

Una sustancia pura es una sustancia formada por un solo tipo de moléculas. Dicho de otro modo, las moléculas de una sustancia pura son iguales entre sí. pero son distintas de las moléculas de las restantes sustancias puras.

d)   Las moléculas pueden estar formadas por un solo átomo (moléculas monoatómicas), pero lo más frecuente es que estén formadas por dos o más átomos, que pueden ser del mismo o de distinto tipo.

Si las moléculas de una sustancia pura son monoatómicas o contienen átomos del mismo tipo, la sustancia es un elemento químico; en caso contrario, la sustancia es un compuesto.

Un compuesto químico es una sustancia pura cuyas moléculas
están formadas por dos o más tipos de átomos.

LAS REACCIONES QUÍMICAS: En el transcurso de la reacción, los átomos no se destruyen ni se transforman en átomos de otro elemento, sino que se organizan de un modo diferente. Tampoco se crean nuevos átomos de la nada; por tanto, la cantidad total de átomos de cada tipo se mantiene constante durante toda la reacción, lo que explica que la masa de las sustancias con las que se inició la reacción sea igual a la masa de las sustancias que se obtienen al final de la misma. Esto explica la ley de conservación de la masa.

Puesto que todas las moléculas de un compuesto químico son iguales (tienen el mismo número y tipo de átomos dispuestos de la misma manera), la relación entre las masas de los elementos que forman el compuesto siempre será la misma, independientemente de la cantidad de compuesto que se analice. Esto explica la ley de las proporciones definidas

Fórmulas químicas:  La Química ha encontrado que es muy conveniente expresar la composición de una sustancia mediante fórmulas.

Las sustancias puras se representan mediante fórmulas:
Las fórmulas se construyen con los símbolos de los elementos que componen la sustancia y con números que indican la cantidad de átomos de cada elemento que hay en cada molécula de dicha sustancia. Por ejemplo:

•   La fórmula del sulfato de calcio es CaS04. lo que significa que cada molécula de sulfato de calcio contiene un átomo de calcio, un átomo de azufre y cuatro átomos de oxígeno.

•   La fórmula del hidróxido de calcio es Ca(OH)2, lo que significa que una molécula de hidróxido de calcio contiene un átomo de calcio, dos átomos de oxígeno y dos átomos de hidrógeno.

MASAS ATÓMICA Y MOLECULARES:
La masa de los átomos es muy pequeña. Nuestras balanzas no sirven para determinar directamente la masa de un átomo, y las unidades de medida que solemos manejar (kilogramos, gramos, miligramos) son demasiado grandes para que nos sean de utilidad.

¿Cómo es posible averiguar la masa de los átomos y cuáles son las unidades más convenientes para expresarla?
Los químicos miden la masa de los átomos y las moléculas en unidades de masa atómica (u).

Una unidad de masa atómica es aproximadamente igual a la masa de un átomo de hidrógeno. (Hoy en día, la comunidad científica acepta una definición más precisa, aunque la definición anterior es suficiente para nuestros propósitos.)

Si aceptamos que la masa del átomo de hidrógeno es igual a la unidad, cuando decimos que la masa de un átomo de oxígeno es de 16 unidades de masa atómica, lo que en realidad estamos indicando es que la masa del átomo de oxígeno es 16 veces mayor que la masa del átomo de hidrógeno.

Análogamente, si decimos que la masa de una molécula de agua es de 18 unidades de masa atómica, lo que queremos decir es que la masa de una molécula de agua es 18 veces mayor que la masa de un átomo de hidrógeno.

¿Cómo es posible comparar la masa de partículas tan pequeñas como los átomos o las moléculas? La clave de esta comparación se encuentra en la hipótesis de Avogadro.

LA  LEY DE AVOGADRO: Dalton no sabía cuántos átomos de los distintos elementos formaban un compuesto en particular. La respuesta, empero, no tardaría en llegar. En 1811 Amadeo Avogadro, profesor italiano, estableció su importante «ley»: «Si colocamos varios gases en recipientes del mismo tamaño, a igual presión y temperatura, todos los recipientes contendrán igual número de partículas de gas».

Esto hace posible, pesando les diferentes gases, comprobar que los átomos de uno tienen peso distinto al de otro. Conocidos los pesos relativos de los átomos individuales de, digamos, el hidrógeno y el oxígeno, es posible afirmar (usando las recetas de Dalton) que dos átomos de hidrógeno se combinan con uno de oxígeno para formar una molécula de agua (H2O), un compuesto. La idea de que los átomos se combinan según proporciones fijas es la base de toda la química moderna, lo que ya hemos hablado.

masa atomica

Esta hipótesis, que fue enunciada en 1813 por el físico italiano Amadeo Avogadro, afirma que en volúmenes iguales de todos los gases, medidos en las mismas condiciones de presión y temperatura, hay el mismo número de moléculas. Por ejemplo, un litro de oxígeno y un litro de dióxido de carbono, medidos ambos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.

En base a esta ley, se comenzó a comparar las masas de dos moléculas distintas, sin necesidad de saber cuantovalen exactamente dichas masas. Si comparamos un litro de hidrógeno gaseoso y un litro de nitrógeno gaseoso, bajo las mismas condiciones de temperatura y presión, observaremos que el volumen de nitrógeno pesa 14 veces mas que el de hidrógeno, y como ambos volumenes tienen el mismo numero de moléculas, se puede concluir que el peso o masa atómica del nitrogeno es 14 veces la del hidrógeno.

A continuación se muestra una tabla de masa atómica para algunos elementos:

tabla de pesos atomicos

Ejemplo: El ácido sulfúrico (S04H2) está formado por los elementos azufre (S: átomo gramo 32 g), oxígeno (O: átomo gramo 16 g) e hidrógeno (H: átomo gramo 1,0 g). La Química dice que la fórmula de esta sustancia es S04H2 con lo cual afirma que cada molécula de este ácido tiene un átomo gramo de azufre, 4 átomos gramo de oxígeno y 2 átomos gramo de hidrógeno (cuando el número de átomos gramo es la unidad no se escribe ningún subíndice).

Además, de acuerdo con el significado completo de los símbolos, la fórmula S04H2, representa una masa 1 x 32 + 4 x 16 + 2 x 1,0 = 98 g. La masa representada, de este modo, por la fórmula, se llama masa de la fórmula. De acuerdo con esto, la fórmula del ácido sulfúrico nos dice que en 98 g de esta sustancia hay 32 g de azufre, 64 g de oxígeno y 2,0 g de hidrógeno.

A continuación se muestran fórmulas de algunas sustancias muy comunes, juntamente con las masas de sus fórmulas, que puedes calcularla usando la tabla superior de los pesos atómicos.

Nombre de la Sustancia                                               Fólmula Química                                     Masa
AguaH2O18
HidrógenoH22,0
Cloruro de hidrógenoClH36,5
OxígenoO232,0
OzonoO348,0
Dióxido de azufreSO264
Trióxido de azufreSO380
Ácido sulfúricoS04H298
AmoníacoNH317
Pentóxido de fósforoP2O5142
Trióxido de fósforoP2O3110
Dióxido de carbonoCO244
Trióxido de aluminioAl2O3102
Óxido de calcioCaO56
Carbonato de calcioC03Ca100
Óxido cúpricoOCu80
Óxido ferrosoOFe72
Óxido férrico03Fe2160
Óxido mercúricoOHg216
Hidróxido de potasit)KOH56
Hidróxido de sodioNaOH40
Clorato de potasioCl03K123
Cloruro de sodioCINa58

EL MOL: Los químicos han definido una unidad muy conveniente para comparar la cantidad de partículas que contienen las muestras de sustancias con las que trabajan. Esta unidad recibe el nombre de mol y representa un número definido de moléculas, átomos, iones, electrones, etc.

De la definición de mol se desprende que el mol de una sustancia pura contiene exactamente el mismo número de moléculas que el mol de otra sustancia pura cualquiera.

Es decir, un mol de metano contiene las mismas moléculas que un mol de ácido sulfúrico, un mol de hidrógeno, etc.
Este número, el número de partículas que contiene un mol, recibe el nombre de número de Avogadro y se representa por NA.

El número de Avogadro tiene un valor de:
NA = 6,02 • 10²³ moléculas/mol

Conocido este valor, se puede calcular el número de moléculas que contiene una muestra cualquiera de una sustancia pura. Por ejemplo, un mol de agua equivale a 18 g de este compuesto. Por tanto, un litro de agua (1.000 g de agua) equivaldrá a 1.000/18 = 55,55 moles. En consecuencia, el número ¿e moléculas que contiene un litro de agua será:

 55,55 moles • 6,02 • 10²³ moléculas/mol = 3,34 • 10²5 moléculas

Hemos definido el mol de tal manera que las masas de los moles de las sustancias se encuentran en la misma relación numérica que las masas de las moléculas de dichas sustancias. Esto tiene una importante consecuencia:

Para medir el mol de una sustancia pura tendremos que tomar tantos gramos de la sustancia como unidades de masa atómica tiene su molécula.

Por ejemplo, como la masa de la molécula de agua es de 18 u, para tener un mol de agua será necesario disponer de 18 gramos de agua; como la masa de la molécula de ácido sulfúrico es de 98 u, para tener un mol de ácido sulfúrico será necesario disponer de 98 gramos de ácido sulfúrico; etc.

EJEMPLO: Sabiendo que la masa atómica del carbono es 12 y la del oxígeno es 16, ¿cuál es la masa molecular del dióxido de carbono? ¿Cuántos moles, moléculas y átom de oxígeno habrá en 132 g de dicho compuesto? ¿Qué volumen ocuparán 2 mi de C02 en en.?

La masa molecular del dióxido de carbono, cuya fórmula es CO2, será la masa atómica del carbono más el doble de la masa atómica del oxígeno: Pm = 12 + 16 x 2 = 44 g/mol

Para calcular la cantidad de sustancia empleamos la relación:

n =m/Pm=132/44= 3 moles de dióxido de carbono

El número de moléculas lo calculamos multiplicando la cantidad de sustancia por el núme de Avogadro:

N.° de moléculas = 3 x 6,022 • 10²³ = 1,807 • 10²4 moléculas de CO2

Como cada molécula de dióxido de carbono tiene dos átomos de oxígeno, el número de átomos de este elemento será el doble que el de moléculas, es decir:

2 x 1,807 • 10²4 = 3,614 • 10²4 átomos de O2

Un mol de cualquier gas en en condiciones normales ocupa 22,4 l.

Por tanto, dos moles ocuparán: 2 • 22,4 = 44,8 l. de CO2

Fuente Consultada:
Revista TECNIRAMA Enciclopedia de la Tecnología N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor
Elementos de Física y Química Carlos Prelat Editorial Estrada

Feymann Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología
Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método cientí

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

Teoría Cinética de los Gases Ideales
Modelo Molecular

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma.

Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento.

A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura.

Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas.

Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo.

En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases en relación al aumento de temperatura y cambios de presión.

A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido.

Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas.

Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales.

Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante.

Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas.

Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton.

Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente.

¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos.

Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas.

Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura.

La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética.

El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas.

En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto.

La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja.

Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos.

En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv.

Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos.

Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos?.

Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales?. ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII.

Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio.

Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus.

Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades.

¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell

Ludwig Boltzmann

Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física.

El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera.

Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano. Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica.

Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Ver: Dilatación de los Gases

Biografia Alexander Humboldt Naturalista Obra Cientifica y Estudios

Biografia Alexander Humboldt Naturalista y Explorador
Obra Científica y Estudios

En julio de 1799, comienza en el puerto español de La Coruña un viaje científico a América del Sur. Atraído por las noticias de las riquezas naturales del continente, un sabio alemán, que ya había estudiado a fondo la geografía de España, se dispone a explorar el subcontinente.

Alexander von Humboldt, nacido en Berlín en septiembre de 1769, estudió la flora y la fauna del continente americano durante cuatro años. Desde Venezuela, donde exploró la cuenca del Orinoco, siguió hasta Ecuador y Perú antes de dirigirse a México.

Von Alexander HUMBOLDT: Barón de Explorador y naturalista prusiano (Berlín, 1769-1859). Nacido en una familia aristocrática de tradición militar, dedicó su vida al estudio y la investigación científica.Hijo del camarero del rey de Prusia.

Destinado a una carrera política, estudió finanzas en la Universidad de Frankfurt, sobre el Oder.

Pero desde temprana edad demostró que su verdadero interés residía en los reinos de la naturaleza y, en consecuencia, se dedicó al estudio de la geología en Freiburg, anatomía en Jena y hasta astronomía. Su primera publicación, un tratado sobre las rocas basálticas del Rin, apareció en 1790.

Estudió Filosofía, Medicina y Botánica, además de interesarse por la minería y la economía y completar sus conocimientos viajando por toda Europa.

Su labor de explorador la orientó fundamentalmente hacia Sudamérica, adonde viajó con patente de Carlos IV, entre 1799 y 1804.

Al iniciar sus estudios pensaba dedicarse a la política, pero optó luego por las expediciones científicas.

Biografia Alexander Humboldt Naturalista Obra Cientifica y Estudios

Alexander Von Humboldt «El Investigador de la Naturaleza» – 1769-1859

Humboldt se dedicó a aumentar sus conocimientos en ciencias e idiomas, y en 1799 emprendió, en compañía de Bonpland, un viaje por las regiones tropicales del Nuevo Mundo, pródigo en beneficiosos resultados, que se prolongó hasta 1804.

Nadie había estudiado hasta entonces la naturaleza de la meseta mexicana, ni la vegetación del Amazonas, ni la fisonomía de los llanos, ni las características de los volcanes.

De regreso a Europa, ambos exploradores publicaron el Viaje a las Regiones Equinocciales del Nuevo Continente, 30 volúmenes, que aparecieron entre 1805 y 1832, donde se encuentran reunidos múltiples y valiosos documentos relativos a economía política, agricultura, geografía, arqueología, descripción de pájaros, peces, insectos y otras maravillas de la naturaleza.

Este material fue luego de gran utilidad para las famosas Sinopsis de S. Kunth, y fue también aquella obra la que hizo conocer la utilidad del guano como fertilizante y originó su introducción en los países de Europa.

En 1829 emprendió Humboldt un viaje al Asia central, por invitación del gobierno de Rusia, acompañado por Ehrenberg, Rose y Menschenin, que se redujo a una visita a los Urales.

Las observaciones realizadas fueron consignadas en dos volúmenes: uno de Rose, Mineralogía y Geognosia (1837-1847) y otro de Humboldt, El Asia Central (1843).

Después de esta publicación se dedicó a la redacción de su Cosmos, obra en la que ha desarrollado todas las ramas de la ciencia conocidas hasta entonces, y creado algunas más.

Visitó las islas Canarias y Cuba, se adentró en la selva del Orinoco, recorrió los Andes desde Cartagena de Indias hasta Lima, se detuvo para subir al monte Chimborazo (la mayor altura conquistada por el hombre hasta la época) y completó el periplo atravesando el Virreinato de Nueva España entre Acapulco y Veracruz.

A lo largo de la expedición realizó observaciones sobre la fauna, flora, geología, geografía y astronomía, pero también sobre la sociedad, economía, historia, razas y costumbres de América; de regreso a Europa trajo importantes colecciones de dibujos, plantas, minerales y animales disecados, que se conservan en museos de Berlín y París.

Luego dedicó gran arte de su vida a plasmar por escrito sus observaciones: primero en los cinco volúmenes del Viaje a las regiones equinocciales del nuevo Continente (1807-27); y luego en los cuatro de Cosmos.

Ensayo de una descripción física del mundo (1844-57). Entre ambas obras realizó otra expedición científica al Asia central, bajo la protección del zar Nicolás I. En las costas peruanas del Pacífico descubrió una corriente marina fría que, desde entonces, se denomina corriente de Humboldt.

Su hermano mayor, Karl Wilhelm von Humboldt (1767-1835), fue un destacado filólogo, pensador, diplomático y político liberal, que participó en las reformas de Stein*, modernizó el sistema educativo prusiano y fundó la Universidad de Berlín.

La línea de los volcanes: En Ecuador, Humboldt observó que los volcanes andinos se alineaban como si estuvieran a lo largo de una profunda grieta de la corteza terrestre.

Mientras estudiaba y clasificaba especies vegetales y zoológicas, Humboldt estudió la variación del magnetismo terrestre según se acercaba al ecuador y la relación existente entre temperatura y altitud.

Fue el primero en ascender hasta los 5800 m en el Chimborazo, que alcanza los 6267 m.

Humboldt se dedicó luego a investigar la corriente marina que recorre el litoral occidental de Amén :a del Sur y que actualmente se conoce corno corriente de Humboldt o corriente del Perú.

La influencia térmica que produce esta corriente fría explica que se encuentren en América animales polares, como los pingüinos, en latitudes tropicales.

Considerado el padre de la geografía climatológica y de la vulcanología, Humboldt murió en 1859.

https://historiaybiografias.com/linea_divisoria3.jpg

VIAJES Y OBRA CIENTÍFICA PUBLICADA

La cuenca del Orinoco (Venezuela) era poco conocida, pues bien, Humboldt observó ciertas analogías con el Nilo, comparación que constituye una ejemplar lección de geografía; las dudas que en 1797 había expuesto el geógrafo Buache, contra la posibilidad de una unión entre» el Orinoco y el Amazonas fueron disipadas por Humboldt.

Nuestro hombre llevó a cabo una navegación de doscientas millas geográficas, cruzando una red de ríos que le condujeron del Río Negro, por la Casaquiara, al Orinoco, esto es, por las fronteras de Brasil, desde el interior del continente hasta el litoral de Caracas; el paso por las cataratas de Atures y Maypures es uno de los episodios más apasionantes del relato de Humboldt.

A su regreso al litoral hizo escala en La Habana con el propósito de ganar las islas Filipinas pasando por México, pero tuvo que desistir porque las dos corbetas disponibles, El Geógrafo y El Naturalista, se encaminaban al cabo de Hornos para seguir hasta El Callao, en Lima.

En marzo de 1801 embarcó para Cartagena de Indias, pero la expedición de Baudin, en vez de doblar el cabo de Hornos dobló el de Buena Esperanza.

No obstante, este contratiempo fue aprovechado por Humboldt, aunque contrariado al no poder ir al Perú y estudiar la cadena de los Andes, porque gracias a la oportunidad que le deparó el buen tiempo pudo observar el paso de Mercurio sobre el disco solar.

Reemprendiendo la ruta llegó a Cartagena, en la meseta de Bogotá, tras dos meses de navegación por el río Magdalena. Atravesando la cadena de Quindiu, visitó el volcán de Popoyán, el páramo de Almaguer y la alta meseta de Los Pastos y llegó a Quito el 6 de enero de 1802.

Humboldt empleó cinco meses en explorar el alto valle de Quito y la cadena de volcanes con sus cimas nevadas.

Organizó una ascensión al Chimborazo, coronado con éxito, y a continuación, franqueando el páramo de Asuay, pasó los Andes, descendiendo por Cuenca y las selvas de Quinquina de Loxa en el valle superior del Amazonas, cerca de Juan de Brocamoros; y atravesando la meseta de Cajamarca llegó al Micuipampa y a la pendiente occidental de las cordilleras del Perú; en el alto de Guancamarca por primera vez gozó del espectáculo que proporciona la vista del océano Pacífico.

El 23 de marzo de 1803 Humboldt y sus compañeros llegaron a Acapulco, tras haber tocado en El Callao y Guayaquil.

De allí se dirigieron a la capital de México, donde permanecieron el tiempo justo para preparar una expedición a la provincia del Michoacán y al volcán Jómelo.

De regreso a México, la capital, Humboldt se tomó un tiempo para ordenar sus colecciones, las notas y apuntes diversos que había reunido. Incansable, empero, tal era su ímpetu por explorar el mayor número posible de regiones, que organizó una ascensión al volcán Toluca, prosiguiendo por las selvas de las cadenas de Xalapa hasta Veracruz; milagrosamente se libró de la fiebre amarilla, viviendo la epidemia que hizo estragos en la ciudad.

Finalmente, después de una estancia en La Habana, junto con sus compañeros Bonpland y Montúfar embarcó rumbo a Filadelfia y de allí se trasladó a Washington, donde fue amistosamente recibido por Jefferson. Después de una travesía sin contratiempos, el 3 de agosto de 1804 llegó a Burdeos, término de un viaje que había durado cinco años.

Los resultados de este viaje le permitieron publicar siete tomos cada uno de los cuales es ya por sí mismo una obra monumental.

Nosotros nos limitaremos a dar el título de cada uno, cuyo orden es el subsiguiente: Voy ages aux régions équinoxiales du Nouveau Continent, Vue des Cordilléres et Monu-ments des Peuples indigenes de l’Amérique, Journal d’Observations de Zvo-logie et d’Anatomie comparée, Essai politique sur le Royaume de la Nouvelle-Espagne, Recueil d’Observations astronomiques, Operations higrométriques et de Mesures barométriques, Physique genérale y Géologie y Essai de la Géo-graphie des Plantes.

alexander humboldt imagenes de su libro

Ilustraciones de Viaje a las regiones equinocciales del Nuevo Continente. Arriba: volcán de Turbaco; abajo: balsa en el río Guayaquil.

Esta obra fue escrita en París, donde residió desde 1805 hasta 1827. En este intervalo sólo hizo un viaje de estudios a Italia con el objeto de llevar a cabo observaciones hipsométricas en el Vesubio, pero no debieron de ser muy completas porque años después las volvió a verificar.

Esta larga estancia en París la dedicó a la preparación de su obra monumental, cuidando de’los más mínimos detalles que requería su impresión, aunque sus ocios los dedicó a la química, colaborando con Gay-Lussac en unos trabajos sobre el aire atmosférico y, con Berthollet, en las Mémoires de la Societé d’Arcueil y los Annales de Physique et de Chimie.

A partir de 1827 fijó definitivamente su residencia en Berlín. Humboldt gozaba de una fama y un respeto merecidos.

En Berlín se vio favorecido por la confianza del rey Federico-Guillermo III de Prusia y de su sucesor Federico-Guillermo IV. Amigo de todos los ministros y de los personajes más influyentes de la corte, hubiera podido ocupar un alto cargo público, pero prefería vivir para la ciencia que para las tareas administrativas y políticas.

Es más, aunque ya sexagenario, se lanzó a una nueva y peligrosa aventura. En efecto, en 1829, junto con sus dos amigos Ehrenberg y Gustave Rose, preparó un viaje por Asia; llegaron hasta la China y, en nueve meses, cuando regresaron a Moscú habían recorrido una distancia de dos mil trescientas millas geográficas.

imagenes del libro cientifico de humboldt

Los resultados de este viaje aportaron nuevos datos a la mineralogía, orografía y climatología y figuran en el libro, que en su edición francesa del 1843 lleva por título Asie céntrale, recherches sur les chaines de motaignes et la climatologie comparée; también enriquecieron su Ansichten der Natur (Cuadro de la Naturaleza), en su segunda edición aparecida en Berlín en 1849.

Pasada la revolución del 1830, el rey Federico-Guillermo III le encargó reconocer en nombre de Prusia el advenimiento del rey Luis-Felipe. Desde entonces renovó sus viajes a París, donde contaba con numerosos amigos y admiradores.

En esta época elaboró el Examen critique de la Géographie du Nouveau Continent, publicado en cinco volúmenes, en la edición francesa que vio la luz en 1836; la última estancia en París, una de las capitales más amadas por Humboldt, fue entre los años 1847 y 1848; y el viaje acompañando a Londres al rey Federico-Guillermo IV para asistir al bautizo del príncipe de Gales, más otro a Copenhague, pasaron a ser los últimos desplazamientos de este hombre infatigable, que no rehuyó ningún peligro con tal de lograr una nueva hipótesis de trabajo.

Cuando Humboldt terminó la redacción del Kosmos, su obra monumental, contaba ochenta y nueve años. Unos meses después de verla terminada, rodeado de fama y honores, murió en Berlín, el 6 de mayo de 1859.

Acaso el esfuerzo mayor de Humboldt se pueda situar en el último decenio de su vida, cuando inició la redacción del Kosmos.

Esta obra viene a ser la síntesis del mundo físico. A gran escala es un desarrollo de sus Tableaux de la Nature, y en ambos libros, en especial en el Kosmos, Humboldt quiso demostrar que la forma severa de la ciencia, o la descripción rigurosa de los fenómenos que acaecen en nuestro globo, son susceptibles de ser resumidos y completados en las escenas animadas que la naturaleza ofrece a cada paso.

Ahora bien, este empeño tan laudable no está conseguido del todo. Humboldt no supo renunciar al rigor de su cultura y la lectura del Kosmos es fatigosa para quienes no tienen un auténtico interés científico.

En este sentido aseguraríamos que Darwin obtuvo un resultado más feliz sin renunciar al rigor, y que este resultado, no olvidemos que la cultura no está reñida con la amenidad, ai contrario, favoreció las conclusiones que se pueden extraer de un libro muy leído: comentémoslo, empero, al margen de esta impresión.

El Kosmos se inicia con una serie de consideraciones sobre los estímulos que provoca la visión de la naturaleza en general.

Este contacto de bienestar, de placidez que resulta de la relación entre el hombre y la naturaleza es capaz de «disminuir el dolor y apaciguar las pasiones cuando el alma está penosamente agitacta». Ahora bien, esta relación en el fondo es el estímulo de una armonía jamás alterada.

Después de esta armonía vienen los efectos del paisaje contemplados a través de la lucha de los elementos desencadenados, la desnudez de los desiertos y estepas, la contemplación de los campos fértiles, etc., que asimismo producen los primeros estímulos.

No existen contradicciones. Al contrarío. El autor, valiéndose de descripciones, en un segundo término penetra hasta el fondo de los fenómenos que esconden.

En el Kosmos Humboldt expone la uniformidad de las variaciones atmosféricas.

Sobre este particular, por ejemplo, una prueba de su minuciosidad la tenemos recordando que Humboldt fue uno de los primeros en señalar la regularidad de los máximos y mínimos del barómetro en las regiones equinociales, de suerte que este instrumento puede ser empleado, por así decirlo, a modo de reloj.

En lo tocante a la uniformidad de las variaciones atmosféricas y de los contrastes de clima y de vegetación. siguiendo la diferencia de las alturas parecen, según Humboldt, en la zona tórrida, reflejar la invariabilidad de las leyes que gobiernan los movimientos celestes.

Sobre este punto Humboldt aporta toda clase de detalles, ricos en descripciones fantásticas. Nos limitaremos a observar, pues, que en este capítulo llega a sobrecargar tanto los detalles que incluso desorienta al lector; Humboldt en ocasiones no puede sustraerse a su naturaleza germánica.

El estímulo se torna goce cuando el autor considera que el hombre puede trabar conocimiento con las leyes de la naturaleza. Ahora bien, cuando todo podía hacer suponer que Humboldt recurría a las leyes de la filosofía natural circunscrito a la Naturphilosophie, empieza a trazar con mano segura la visión del universo; después de las nebulosas y estrellas lo ordena, ya en la corteza terrestre, en el mundo de los vegetales y de los animales.

Punto aparte merecen las consideraciones de Humboldt sobre las rocas que constituyen nuestro planeta. Las divide en cuatro clases.

En la primera incluye las «rocas de erupción», salidas del interior del globo, «volcánicamente», o sea en estado de fusión, o «plutónicamente», esto es, en estado reblandecido. En la segunda clase están las «rocas de sedimento», precipitadas o condensadas en un medio líquido, donde primitivamente estaban disueltas o en suspensión.

En la tercera están las «rocas metamórficas», cuya textura y modificación han sido alterados, ya sea por el contacto o proximidad de una roca de erupción volcánica o plutónica, ya sea por la erupción de vapores y de sublimaciones que acompañan la eclosión de ciertas masas en estado de fluidos ígneos. Y la cuarta clase de rocas la constituyen los «conglomerados», formados de los despojos de tres rocas precedentes y divididas de una forma mecánica.

En 1817 Humboldt ya imaginó una manera de distribuir el calor por el globo terrestre.

Partió de una idea de Halley y efectuó una distribución gráfica. Sus líneas isotermas, ¿soferas e isiquímenas, representando la media de las temperaturas anuales del estío e invierno, fueron uno de los procedimientos más útiles en climatología.

En el segundo volumen del Kosmos aborda la historia de las ciencias. Aquí Humboldt ofrece la idea más importante de su obra a través «del reflejo del mundo exterior en la imaginación del hombre».

Cuando Canguilhem pondera su síntesis de conocimientos, que tienen por objeto la vida sobre la Tierra, sin duda se refiere a esta parte donde además desarrolla la idea total del universo.

El tercer volumen está exclusivamente consagrado a la astronomía. Humboldt, en la zona de los asteroides, cuyo número aumenta todos los años, divide los planetas en tres grupos:

1.°) los planetas interiores (Mercurio, Venus, Tierra y Marte), situados más cerca del Sol, y que de este lado de los asteroides son todos de una magnitud media, un poco más pequeños que la Tierra, relativamente más densos, poco achatados, dotados de un movimiento de rotación poco más o menos uniforme, de veinticuatro horas por lo menos, y desprovistos de satélites, exceptuando la Tierra;

2.°) la zona intermedia de los asteroides, que destacan por su pequenez, así como también por la excentricidad y la inclinación de sus órbitas; y

3.°) los planetas exteriores (Júpiter, Saturno, Urano y Neptuno), situados entre la zona de los asteroides y los extremos todavía desconocidos del sistema solar, son mucho más grandes, cinco veces menos densos, con un movimiento de rotación más rápido, con un achatamiento más sensible y todos provistos de satélites.

En este tercer volumen cabe señalar también las observaciones de Humboldt sobre la luz zodiacal, que interpreta como una posible irradiación de la atmósfera solar; Humboldt lo expresa en los siguientes términos: «Sobre todo en las regiones tropicales los fenómenos meteorológicos muestran dentro de sus variaciones una mayor uniformidad y regularidad, que permite esperar las aclaraciones sobre la naturaleza de la luz zodiacal»; la falta de instrumentos no le permitió profundizar en estos campos de la astronomía, pero evidenció su profunda intuición de los fenómenos naturales.

El cuarto volumen está dedicado a la física del globo terrestre. Se publicó en 1858, o sea un año antes de su muerte.

El autor estudia con gran precisión muchos de los puntos que había esbozado en el primer volumen, tales como el magnetismo terrestre, los terremotos y las zonas volcánicas.

Fiel a sus puntos de partida, Humboldt relaciona estos fenómenos con la idea del Kosmos, o sea buscando las relaciones entre la Tierra y el universo. «Nada de lo que ocurre en nuestro planeta —escribe— debe ser concebido sin una complejidad cosmológica.

El nombre de planeta ya indica la dependencia de un cuerpo central, relaciones con un grupo de cuerpos celestes de tamaño diferente, y probablemente, con un mismo origen.

A su debido tiempo se supuso la influencia del Sol en el magnetismo terrestre, y Kepler había supuesto que todos los ejes de los planetas estaban dirigidos magnéticamente hacia el mismo punto del cielo; y, siguiendo este gran astrónomo, el mismo Sol era un cuerpo magnético dotado de una fuerza que hacía mover los planetas.»

Terminando con los dos últimos volúmenes, especialmente en el séptimo, el análisis de los paisajes inicia lo que más tarde se denominará la «ciencia de los lugares» que, junto «con la del hombre», será el primer paso para tratar de la evolución.

En su visión geológica y física abrió las puertas a una geografía climatológica, de los mares, que sólo poseían una existencia problemática. En fin, en el Kosmos Humboldt aplica a su objeto, a las relaciones del hombre histórico y su medio, la categoría de una totalidad.

La obra de Humboldt ha sufrido los embates del tiempo, muchos de sus hallazgos han sido superados, buena parte de suposiciones desechadas y determinadas metodologías han buscado nuevas vías.

No obstante, a partir de Humboldt las determinaciones de la relación histórica tomarán como soporte la geografía.

En la misma Alemania este paso originará el de la antropología de la mano de Ratzel y, de rechazo, la historia como ciencia conducida por Michelet; el legado de Humboldt aparece como un gran esfuerzo que la ciencia actual aún debe contemplar como un devenir indefinido.

Fuente Consultada:
Forjadores del Mundo Contemporáneo – Tomo I- Entrada: Alexander Von Humboldt  – Editorial Planeta

Luminiscencia: fenomeno de iluminacion en la oscuridad Fenomeno Fisico

El Fenómeno de la Luminiscencia

La luminiscencia es la propiedad que presentan algunos materiales y seres vivos de emitir luz cuando son sometidos a determinada temperatura. Esta luz es visible solamente en la oscuridad.

Poseen esta capacidad las luciérnagas o los peces de los abismos marinos; también el pescado putrefacto, algunas clases de madera y ciertos minerales y sulfuros metálicos.

luminiscencia

La luminiscencia comprende las emisiones de luz visible producidas tanto por la acción de ciertos rayos como por la existencia de reacciones físicas o químicas.

Se excluye la radiación originada exclusivamente como consecuencia del calor.

Dependiendo de la energía que la origina, es posible hablar de varias clases de luminiscencia: fotoluminiscencia,  fluorescencia,  fosforescencia, termoluminiscencia, quimiolumíniscencia, triboluminiscencia, electroluminiscencia y radioluminiscencia. 

Fotoluminiscencia

Cuando la energía activadora es de origen electromagnético (rayos X, ultravioleta, catódicos) se habla de fotoluminiscencia. Los rayos X, en particular, producen una intensa luminiscencia.

En el caso de los minerales fotoluminiscentes, la luz es absorbida durante un determinado periodo de tiempo y, al ser emitida, lo hace con una longitud de onda menor que la incidente.

Es decir, no se trata de un fenómeno óptico de difracción o reflexión.

La luminiscencia por rayos X permite, por ejemplo, diferenciar las perlas cultivadas de las naturales, ya que las primeras presentan esa capacidad, en tanto que las segundas, excepto las de agua dulce, carecen de ella. Se trata de una propiedad particularmente útil en el reconocimiento de piedras sintéticas. 

Fluorescencia

Es la luminiscencia causada única y exclusivamente por rayos ultravioleta. El término fluorescencia proviene del mineral que presenta este fenómeno por naturaleza, la fluorita.

No todos los minerales absorben luz U.V. de igual longitud de onda. Por ejemplo, algunos sólo son capaces de hacerlo para rayos U.V. de longitud de onda corta (254 nm); otros, para longitudes largas (350-370 nm), mientras que hay minerales que presentan este fenómeno indistintamente para unas y otras longitudes.

Tampoco todos los minerales, aunque tengan el mismo origen o la misma apariencia, poseen por sistema la propiedad de la fluorescencia. En este sentido, no todas las fluoritas son fluorescentes, tan sólo aquellas en las que existe presencia de materia orgánica o de tierras raras. 

Fosforescencia

Cuando la luminiscencia continúa un cierto tiempo aunque se elimine la fuente de excitación, se había de fosforescencia. Existen minerales que, a pesar de haberles retirado la fuente energética que incide sobre ellos, continúan emitiendo luz durante una fracción de segundo, por lo que es difícil a veces diferencia los fenómenos de fotolurniniscencia y fluorescencia. 

Termoluminiscencia

La presentan ciertos materiales únicamente cuando son calentados a temperaturas por debajo del rojo, siendo el calor el desencadenante de la reacción. La luz visible es inicialmente débil, acentuándose entre los 50 y 100 0C y cesando su emisión partir de los 475 °C La calcita, el apatito, la escapolita, la lepidolita y ciertos feldespatos son minerales termoluminiscentes. La clorofana (variedad de la fluorita), por ejemplo, emite una radiación verde muy característica. 

Quimioluminiscencia

Esta particularidad está originada por reacciones químicas. Un ejemplo es la bioluminiscencia, producida por reacciones químicas de origen biológico; uno de los casos más conocidos es el de la luz emitida por las luciérnagas o por los peces de ambientes hipoabisales. 

Triboluminiscencia

Ciertos minerales no metálicos y fácilmente exfoliables poseen la propiedad de emitir luz cuando son sometidos a acciones mecánicas, por ejemplo, al ser molidos o rayados. Es el fenómeno de la triboluminiscencia. La fluorita, la esfalerita, la lepidolita y, en menor medida, la pectolita, la ambligonita, los feldespatos y la calcita presentan esta característica.

Electroluminiscencia y radioluminiscencia

Si el efecto as provocado por la acción de corrientes eléctricas, el fenómeno se denomina electroluminiscencia. La radioluminiscencia, por su parte, está motivada por reacciones nucleares. Fue observada por vez primera en el radio, gracias a las investigaciones de Marie y Pierre Curie

El fenómeno de la luminiscencia en los análisis de toxicidad

Si se realizan ciertos análisis de toxicidad en los efluentes industriales que se vierten a plantas de tratamiento de aguas, se puede determinar que, en ocasiones, llegan a ser considerablemente más tóxicos que la totalidad del agua residual que accede a la planta antes de ser tratada.

Mediante un análisis químico tradicional es posible identificar los contaminantes presentes y se pueden cuantificar sus niveles; es necesaria la realización de un análisis de toxicidad para determinar los efectos tóxicos de estos vertidos.

Para ello se emplean métodos biológicos, mediante la acción de bacterias luminiscentes, de forma que cuando los niveles de sustancias tóxicas superan determinados valores, la luminiscencia se inhibe. Esta disminución de la luminiscencia se produce de forma directamente proporcional a la presencia de contaminantes tóxicos.

Esto ocurre porque los compuestos tóxicos actúan sobre las estructuras celulares y sus funciones biológicas, básicas para cualquier organismo vivo.

Efecto de la Radiación Ultravioleta Sobre la Piel

Usos de la Energia Nuclear Aplicaciones y Beneficios

Usos de la Energía Nuclear Ejemplos de Aplicaciones Practicas

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energía empleada en el mundo.

La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables.

La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.

Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas.

Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.

———— 0000 ———–

Usos y Aplicaciones Mas Comunes En:

1-Electricidad
2-Medicina
3-Agricultura y Alimentación
4-Hidrología
5-Minería
6-Industrias
7-Arte
8-Medio Ambiente
9-Exploración Espacial
10-Cosmología

https://historiaybiografias.com/linea_divisoria1.jpg

USOS DE LA ENERGIA NUCLEAR

1-USO EN ELECTRICIDAD

uso energia nuclear

En cada vez mas países, como en España, más del 20% de la electricidad consumida anualmente se produce en las centrales nucleares

2-USO EN MEDICINA

uso en medicina energia nuclear

Las técnicas de diagnóstico y tratamiento de La medicina nuclear son fiables y precisas: radiofármacos, gammagrafia. radioterapia, esterilización…

3-USO HIDROLOGÍA

uso nuclear en hidrologia

Los isótopos se utilizan para seguir los movimientos del ciclo del agua e investigar las fuentes subterráneas y su posible contaminación.

4-AGRICULTURA Y ALIMENTACIÓN

uso en agricultura de la energia nuclear

Control de plagas de insectos, mejora de las variedades de cultivo, conservación de alimentos.

5-USO EN MINERÍA

uso en mineria de la enrgia nuclear

A través de sondas nucleares se puede determinar la composición de las capas de la corteza terrestre.

6-EN INDUSTRIA

Los isótopos y radiaciones se usan para el desarrollo y mejora de los procesos industriales, el control de calidad y la automatización.

7-EN ARTE

la energia nuclear en el arte

Las técnicas nucleares permiten comprobar la autenticidad y antigüedad de las obras de arte, asi como llevar a cabo su restauración

8- EN MEDIO AMBIENTE

uso nuclear en el medio ambiente

Técnicas como el Análisis por Activación Neutrónica permiten la detección y el análisis de diversos contaminantes

9-EN EXPLORACIÓN ESPACIAL

energia nuclear en la exploracion espacial

Las pilas nucleares se utilizan para alimentar la instrumentación de satélites y de sondas espaciales

 10-EN COSMOLOGÍA

El estudio de la radiactividad de los meteoritos permite confirmar la antigüedad del universo.

Uso en las Centrales Nucleares

La generación de electricidad es el empleo más importante de la energía liberada en una fisión nuclear. Para ello es necesario controlar la reacción de fisión en cadena; hace falta un sistema que impida que el número de fisiones por unidad de tiempo sobrepase ciertos límites.

Esto se logra mediante el reactor nuclear Un reactor nuclear consiste básicamente en un recipiente en cuyo interior se encuentra el combustible nuclear (uranio o plutonio).

Dicho combustible se suele introducir en forma de pastillas encapsuladas en una serie de vainas metálicas ,rodeadas por un material moderador, que forman el interior del reactor. Para el control de la reacción existen unas barras deslizantes, compuestas de un material capaz de absorber neutrones (boro o grafito).

Según se introduzcan más o menos barras de control en el interior del reactor, el número de neutrones absorbidos será mayor o menor, de este modo se puede controlar el número de fisiones que ocurren por unidad de tiempo.

Si las barras se introducen totalmente, la reacción de fisión se detiene. Todo el conjunto del reactor se halla encerrado por el blindaje biológico, que es una envoltura de metal y hormigón cuya finalidad es impedir el paso de la radiación o gases contaminantes o radiactivos al medio ambiente.

La energía liberada por la fisión del combustible se manifiesta en forma de calor, que se extrae mediante un refrigerante que suele ser agua y que, a causa del calor recibido, se convierte en vapor a alta presión.

El vapor así producido es utilizado para mover turbinas que están acopladas a los generadores eléctricos, posteriormente es enfriado y forzado a circular nuevamente dentro del reactor mediante bombas.

Cuando el combustible empleado es el uranio, puede presentarse en dos variedades: uranio natural o uranio enriquecido. El uranio natural contiene una pequeña proporción de átomos de uranio-235, que es el único que puede fisionar en el reactor.

Por ello es necesario mejorar sustancialmente la eficiencia del reactor, sobre todo en lo que hace a la absorción indeseada de neutrones, esto encarece la estructura del reactor pero generalmente se compensa con el bajo costo del uranio natural. Por el contrario, el uranio enriquecido presenta una proporción mucho más alta de átomos de uranio-235, que se logra mediante un costoso proceso de refinamiento químico.

El uranio-235 va desapareciendo del combustible debido a las fisiones; después de cierto tiempo de funcionamiento del reactor es necesario recambiar el combustible. Esta operación se logra sacando algunas de las vainas que contienen el combustible y reemplazándolas por otras con combustible nuevo.

La generación de electricidad mediante reactores de fisión nuclear presenta grandes ventajas pero también serios inconvenientes.

Entre las ventajas, las más importantes son que no producen contaminación directa de la atmósfera dado que no hay emisión de gases de combustión y que no dependen del suministro de combustibles fósiles que eventualmente han de agotarse.

Los inconvenientes tienen que ver con el tipo de residuos que produce su operación, que consisten en material radiactivo (cuya peligrosidad persiste durante muchos miles de años), por esta razón es muy difícil su tratamiento.

Además, hay que destacar las consecuencias extremadamente graves que tienen para las personas y el medio ambiente los eventuales accidentes que pueden ocurrir, y han ocurrido, en las centrales nucleares.

Estas características compiten firmemente entre sí y hacen que el empleo de las centrales nucleares tenga tantos fervientes defensores como opositores.

usina nuclear esquema Esquema reactor nuclear

La fusión nuclear se presenta como una fuente energética alternativa con muchos menos inconvenientes que la fisión y tantas o más ventajas. Actualmente, la construcción de una central nuclear en base a la fusión se presenta como un serio desafío tecnológico.

La fusión se ha logrado en el laboratorio en condiciones muy especiales que no pueden ser llevadas a la escala necesaria para construir una central nuclear que sea económicamente rentable, es decir, que entregue más energía que la que consume y lo haga a un costo que compita con otros mecanismos de generación.

El problema fundamental radica en que la única forma conocida de lograr fusión es comprimir un gas altamente recalentado, a temperaturas superiores a los millones de grados. Este proceso se logra mediante dispositivos llamados botellas magnéticas.

Recientemente, a principios de 1989, dos científicos reportaron haber descubierto un mecanismo mediante el cual se podía lograr la fusión nuclear a temperatura ambiente.

El anuncio revolucionó a la comunidad científica internacional por las espectaculares consecuencias que esto tendría y se denominó fusión fría al fenómeno. Lamentablemente, pese a que innumerables grupos de investigadores de todo el mundo trataron de repetir el proceso, ninguno logró resultados positivos y actualmente se sospecha que los experimentos originales estuvieran mal hechos.

Ver: Funcionamiento de una Central Nuclear

https://historiaybiografias.com/linea_divisoria5.jpg

La Datación Arqueológica

La datación de una muestra arqueológica es el procedimiento por el cual se determina su antigüedad.

El más conocido es el que emplea el isótopo carbono-14 y que permite determinar la edad de restos fósiles o piezas fabricadas por el hombre de hasta 50.000 años de antigüedad.

El carbono está presente en la atmósfera terrestre, formando dióxido de carbono, en tres variedades isotópicas: el carbono-12, -13 y -14. El carbono-12 y -13 son estables, sin embargo el segundo es muy raro: tan sólo 1 de cada 100 átomos de carbono es carbono-13.

En cambio, el carbono-14 es radiactivo con un período de semidesintegración de 5700 años.

Al desintegrarse, el carbono-14 se transforma en nitrógeno-14 y emite radiación Beta y debería desaparecer paulatinamente de la atmósfera. Sin embargo, si bien se lo encuentra en proporción escasísima, hay evidencia de que ésta ha permanecido casi inalterada por muchas decenas de miles de años.

Esto es debido a que también existe un mecanismo por el cual se forma carbono-14 a partir del nitrógeno-14.

Este hecho tiene lugar en las capas más altas de la atmósfera y consiste en la transmutación del nitrógeno-14 en carbono-14 producida por la radiación cósmica.

El carbono-14 así formado se combina con el oxígeno para dar dióxido de carbono y es transportado a las capas más bajas de la atmósfera por las corrientes de aire.

Estos dos mecanismos, el de desintegración y el de creación, han llegado a un equilibrio: la cantidad de carbono-14 que se desintegra durante cierto tiempo es igual a la que se crea en ese tiempo. De tal modo la abundancia de carbono-14 en la atmósfera permanece constante.

Como bien sabes, durante el proceso de fotosíntesis las plantas toman dióxido de carbono de la atmósfera y asimilan el carbono a su organismo. Por este motivo, una parte del carbono que hay en las plantas será carbono-14. Cuando la planta muere, el carbono-14 de su organismo comienza a desaparecer lenta pero inevitablemente, debido a su desintegración.

El resultado de este complicado mecanismo es: ¡un fósil vegetal tiene incorporado su propio reloj! Para saber el tiempo que ha trascurrido desde su muerte bastará con medir la abundancia de carbono-14 que hay en él y que será tanto menor cuanto más tiempo haya transcurrido.

Los físicos han podido establecer cuál es la ley que sigue esta disminución y confeccionaron tablas de la abundancia en función del tiempo. Por lo tanto, una vez conocida esa abundancia bastará con comparar el valor medido con esa tabla para saber la edad del fósil.

Como ya te imaginarás, este fenómeno que afecta el carbono que hay en las plantas también afecta a los animales pues, en algún paso de la cadena alimentada, ellos se nutren de las plantas. También afecta la composición del suelo, pues en la mayor parte de los casos las plantas al morir se integran a él. También a los utensilios y objetos creados por los hombres primitivos, como las vasijas de barro. Por estas razones, este método de datación sirve para analizar una variedad muy grande de muestras. Debemos decir, sin embargo, que falla cuando se trata de determinar edades de más de 50.000 años, en cuyo caso se emplean otros métodos.

https://historiaybiografias.com/linea_divisoria5.jpg

Utilización en Medicina y otras áreas

Aprovechando la acción destructiva de las radiaciones sobre la materia, los radioisótopos se emplean en medicina en el tratamiento contra el cáncer, radiando con cobalto-60 los tumores que se quieren eliminar.

También se emplean en la esterilización de material médico y quirúrgico.Los radioisótopos pueden introducirse en un organismo vivo o en cualquier otro material y puede seguirse su trayectoria a través de él. Por ello se emplean como trazadores o marcadores en investigaciones médicas, químicas, industriales, etc.

Por ejemplo, el isótopo yodo -131 se utiliza en medicina para diagnosticar enfermedades de la tiroides. En química y biología, los isótopos radiactivos se utilizan para realizar estudios sobre velocidad y mecanismo de reacciones. En la industria, se emplean para localizar fugas en el transporte de fluidos, por ejemplo, en un oleoducto.

https://historiaybiografias.com/linea_divisoria5.jpg

 Desventajas del uso de radioisótopos

En contrapartida a su utilidad, el manejo de materiales radiactivos plantea problemas de difícil resolución. Entre ellos se destacan la eliminación de los residuos radiactivos que se producen y el control de la seguridad de las personas encargadas de su manipulación y de las comunidades próximas a las instalaciones nucleares.

De hecho, un accidente nuclear de la magnitud del ocurrido en la central de Chernobil puede haber afectado, según algunas estimaciones, la salud de más de medio millón de personas, sin contar las enormes pérdidas materiales que ha originado. (VER DESCRIPCIÓN DEL PROCESO DE LA FISIÓN DEL URANIO)

https://historiaybiografias.com/linea_divisoria5.jpg

Ampliación: Los Beneficios de la Energía Nuclear

La energía nuclear es cuestionada debido a los daños que puede causar al ambiente y a los seres vivos si no existe un control estricto de los reactores nucleares y de los desechos radiactivos, y por su utilización en la fabricación de armamento altamente destructivo.

Sin embargo, la energía nuclear puede tener múltiples usos beneficiosos para la humanidad, no solo en la generación de energía eléctrica —una fuente de energía menos contaminante que el petróleo o el carbón—. sino también por su aplicación en otras áreas de la actividad científica y productiva. Entre ellas:

1 | Agricultura y alimentación

a) Control de plagas. En la llamada técnica de los insectos estériles se suministran altas emisiones de radiación para esterilizar insectos machos en laboratorio y que no dejen descendencia al aparearse. De este modo es posible controlar su población sin utilizar productos químicos nocivos.

b) Mutaciones. La irradiación aplicada a semillas permite cambiar la información genética de ciertas variedades de vegetales para obtener nuevas variedades con características particulares.

c) Conservación de alimentos. Las radiaciones son utilizadas para eliminar microorganismos patógenos presentes en los alimentos y aumentar, de este modo, su período de conservación.

2 | Hidrología

Mediante técnicas nucleares, es posible desarrollar estudios sobre los recursos hídricos. Por ejemplo, caracterizar y medir corrientes de aguas, fugas en embalses, identificar el origen de las aguas subterráneas, etcétera.

3 | Medicina

Se utilizan radiaciones y radioisótopos como agentes terapéuticos y de diagnóstico. En el diagnóstico, se utilizan fármacos radiactivos para estudios de tiroides, hígado, riñon, para mediciones de hormonas, enzimas, etcétera. En terapia médica se pueden combatir ciertos tipos de cáncer con resultados exitosos, especialmente cuando se detectan tempranamente.

4 | Medio ambiente

Se utilizan técnicas nucleares para la detección y análisis de diversos contaminantes del medio ambiente.

5 | Industria e investigación

a) Trazadores. Se elaboran sustancias radiactivas que son introducidas en un determinado proceso y, luego, se detecta la trayectoria de la sustancia por su emisión radiactiva. En el ámbito de la Biología, la introducción de compuestos radiactivos marcados ha permitido observar las actividades biológicas hasta en sus más mínimos detalles.

b) Imágenes. Es posible obtener imágenes de piezas utilizando radiografías que reciben el nombre de gammagrafía y neutrografía. Por ejemplo, se puede comprobar la calidad en piezas cerámicas, detectar la humedad en materiales de construcción, etcétera.

a) Datación. Se emplean técnicas isotópicas para determinar la edad en formaciones geológicas y arqueológicas. Por ejemplo, se utiliza la técnica de carbono-14, para determinar la edad de fósiles.

Fuente Consultada: Físico Químico de Pilar Escudero y Otros

https://historiaybiografias.com/linea_divisoria5.jpg

CRONOLOGÍA

1938 — Otto Hahn, Lise Meitner y Fritz Strassman descubren en Alemania la fisión nuclear del uranio.

1942 — Primera reacción nuclear en cadena en un laboratorio de Chicago dirigido por Enrico Fermi.

1945 — El bombardero Enola Gay lanza la primera bomba atómica de fisión nuclear sobre la ciudad japonesa de Hiroshima. Poco después, los Estados Unidos lanzan la segunda sobre Nagasaki.

1949 — La Unión Soviética realiza su primera prueba nuclear en Kazajstán.

1952 — Estados Unidos hace explotar su primera bomba de fusión nuclear en el atolón de Bikini, en el Océano Pacífico. Los británicos realizan su primera prueba en las islas australianas de Monte Bello.

1956 — Gran Bretaña pone en marcha su primera central nuclear comercial, en Sellafield, con una potencia de 50 Mw. Francia pone en marcha su primera central nuclear experimental, en Marcoule, en el departamento de Chusclan, en el Gard, con una potencia de 7 Mw.

1959 — Francia pone en marcha dos nuevos reactores nucleares en Chusclan, de 40 Mw cada una.

1960 — Francia realiza su primer ensayo nuclear en el desierto del Sahara.

1968 — España construye su primera central nuclear de las nueve que posee actualmente, se llama José Cabrera y se encuentra en el término municipal de Almonacid de Zorita, en Guadalajara, junto al río Tajo, con una potencia de 160 Mw.

boton

Interesante Link Para Investigar: Foro Nuclear

Historia de la Energia Nuclear

Efectos De Una Explosión Nuclear

Funcionamiento De Una Central Nuclear

Concepto Físico de Energia Tipos y Ejemplos Trabajo Definición

Explicación Concepto de Energía

Si preguntamos con impaciencia qué es la energía no esperemos una respuesta rápida. La energía no es fácil de definir -entre otras cosas-por que no siempre podemos percibirla por medio de los sentidos.

Si nos piden que describamos una naranja, la podemos apoyar sobre un plato y mirarla para después olería, tocarla y probarla; en cambio, sería imposible colocar un poco de energía en el plato para arremeter con nuestros sentidos. Si bien la energía «no se ve», puede percibirse por sus efectos.

Por ejemplo, se manifiesta como energía del movimiento en un cuerpo que cae, en forma de luz y calor en el fuego, como energía química en una pila que hace funcionar una radio, en el flujo de la corriente eléctrica que mantiene en servicio a los electrodomésticos, a escala nuclear en una gigantesca explosión y, aunque parezca increíble, «en la naranja que apoyamos sobre el plato» almacenada como energía de reserva.

Para empezar podríamos definir al concepto de energía, como «la capacidad de realizar trabajo«. Una persona que trabaja necesita disponer de una reserva de energía que, en este caso, procede de los alimentos que ingiere.

La comida es una especie de combustible que se quema dentro de nuestro cuerpo, y una parte de la energía que se libera en el proceso de combustión es utilizada para mantener su temperatura, en tanto que otra es consumida por los músculos al moverse, lo que, en definitiva, constituye un trabajo mecánico.

En física, se realiza un trabajo cuando se traslada un peso a una cierta distancia. Su magnitud es el resultado del producto de la fuerza aplicada por la distancia recorrida, siempre que ambas tengan la misma dirección.

Si se levanta un ladrillo de 1 kg. a 1 metro de altura, se realiza un trabajo para vencerla fuerza de la gravedad. La fuerza aplicada es de 1 kg. y, como se ejerce a lo largo de 1 metro, el trabajo realizado es 1 kilográmetro (1 kgm.).

Al realizar este trabajo, se comunica energía al ladrillo. La persona que lo levanta le transfiere parte de la energía procedente de los alimentos que previamente ha ingerido. La energía adquirida por el ladrillo está en la forma de energía potencial, o energía de posición. Si lo dejamos caer, la energía potencial se convierte en energía cinética (energía debida a su movimiento).

Al levantar el ladrillo, el hombre realiza un trabajo y le transfiere energía mecánica, que se convierte en energía potencial.El ladrillo ha adquirido mayor energía potencial, cuya magnitud está dada por el producto de la fuerza por la distancia (altura).Al dejar caer el ladrillo, la energía potencial que había adquirido anteriormente se convierte, ese momento, en energía cinética.

De hecho, energía y trabajo están íntimamente relacionados, aplicándose este último término al proceso de transformación entre dos tipos distintos de energía. La cantidad de trabajo realizado es igual a la cantidad de energía que el ladrillo adquiere. Si se levanta el ladrillo a una altura doble se realiza un trabajo también doble, y el ladrillo adquiere el doble de energía.

Un hecho tan simple como levantar un ladrillo y dejarlo caer es causa de que la energía sufra distintas transformaciones. En primer lugar, la energía química de las sustancias orgánicas complejas, contenidas en nuestros alimentos, se convierte, fisiológicamente, en energía calorífica.

Después, se transforma en energía mecánica (en nuestra mano), para convertirse, posteriormente, en la energía potencial adquirida por el ladrillo. Al dejarle caer, la energía potencial se transforma en energía cinética y, al chocar con el suelo, parte de esta energía cinética se convierte de nuevo en calor, y otra parte se transmite al aire como energía acústica.

Es posible seguir el curso de una cierta cantidad de energía en esta cadena de transformaciones, ligadas por la realización de un trabajo. La cadena puede ramificarse si, en una etapa determinada, la energía se transforma en otros el momento inicial que en cualquiera de las etapas seguidas en un determinado proceso. Este principio constituye la denominada ley de la conservación de la energía, que es uno de los principios fundamentales de la física.

La palabra energía deja de pertenecer exclusivamente al lenguaje común para ingresar al lenguaje científico en el año 1807. La propuesta nace del médico y físico inglés Thomas Young, profesor de Filosofía Natural, de la Royal Institution de Londres.Thomas YungEnergía, en griego significa trabajo y Young la empleó para describir muchos fenómenos que los físicos de la época denominaban fuerza viva y que en la actualidad denominamos energía cinética o energía del movimiento.

La definición de energía dada por Young fue ignorada durante muchos años. Según él, energía era la capacidad para realizar un trabajo. Generalizando, hoy en día trabajo es la «aplicación de un esfuerzo para realizar una tarea».

Una grúa que levanta un contenedor realiza un trabajo. Ocurre lo mismo cuando una pelota rueda de un punto a otro o desplazamos una lapicera para dibujar una palabra en el papel. Tanto la grúa como la pelota y la lapicera deben sufrir la aplicación de una «fuerza», por esto la física define al trabajo como «la aplicación de una fuerza a través de una distancia». Dicho en otras palabras, un trabajo es la fuerza  que levanta, empuja o tira de un objeto a través de un número variable de metros.

La cantidad total de energía en el universo fue y será siempre la misma. Existen otros tipos de energía de especial importancia: energía luminosa, energía eléctrica y energía magnética, que pueden también transformarse en las otras modalidades de energía anteriormente descritas. Por ejemplo, es frecuente que se transformen entre sí las energías eléctrica, calorífica y luminosa; estas dos últimas se obtienen fácilmente de la primera.

La energía eléctrica es la que poseen los electrones cuando circulan por un circuito eléctrico sometido a una «presión eléctrica»; viene expresada por el producto de tres factores: la tensión, la intensidad y el tiempo. En las lámparas, la energía eléctrica se transforma en luz y calor.

Aunque su función primordial es la de proporcionar luz, las lámparas no son muy eficientes, y sus filamentos han de ponerse al rojo para poder emitirla. En una lámpara común, sólo un 5 % de la energía eléctrica se convierte en energía luminosa. El 95 % se transforma en calor. Los electrones, al fluir a través del circuito eléctrico, transfieren su energía al filamento de la lámpara, de igual forma que el hombre transmite energía al ladrillo al levantarlo o empujarlo.

Aunque la energía puede existir en muchas formas, tedas ellas son equivalentes. En el sistema cegesimal (basado en el centímetro, en el grano y en el segundo), la unidad de energía es el «ergio» el que puede expresarse cualquier tipo de energía. Para que los números que se obtengan en las medidas sean sencillas se han introducido otras unidades de energía, más adecuadas.

SISTEMA SEXAGESIMAL SISTEMA BRITÁNICO
Energía mecánica ERGIO
Si levantamos una masa de 1 gramo a la altura de un centímetro, adquiere una energía de 981 ergios.
LIBRA PESO-PIE
Energía adquirida al levantar una libra peso, un pie.
1 Ib. wt. ft. = 1,36
X 10″ ergios
Energía calorífica CALORÍA
Si hacemos subir 1°C la temperatura de 1 gramo de agua, ésta adquiere una energía calorífica de 1 caloría.
1 caloría = 4,19X 107 ergios.
B.T.U. (UNIDAD TÉRMICA BRITÁNICA)
Cantidad de energía calorífica que adquiere una libra de agua cuando su temperatura se eleva 1° Farenheit .
1 b.t.u. = 1,055
X 107
Energía eléctricaJULIO
Un julio es la energía desarrollada por una corriente de un amperio, cuando fluye durante un segundo a través de una diferencia de potencial de 1 voltio.
1 julio = 107 ergios.
No existe equivalente.
Energía de
partículas atómicas
ELECTRÓN-VOLTIO
Es la energía adquirida por un electrón acelerado a través de una diferencia de potencial de 1 voltio.
1 eV = 1,6X I»»12 ergios.
No existe equivalente.

Los electrones propios del filamento absorben esta energía y pasan a un estado excitado, encontrándose entonces en una posición similar a la que tenía el ladrillo después de haberlo levantado. Los electrones excitados pasan, casi inmediatamente, al estado original, con la consiguiente emisión de un tipo especial de energía, que afecta la porción sensible de la retina del ojo.

El cerebro humano interpreta esta impresión como una sensación luminosa. El Sol es, prácticamente, la fuente de toda la energía recibida por la Tierra. Parte de dicha energía es luz visible, pero otras porciones son invisibles.

EL SOL

El aparentemente sólido sol es en realidad una bola gaseosa opaca de hidrógeno. Su núcleo interno está en constante estado de fusión con liberación de enormes cantidades de luz y calor. Esto se hace perceptible a partir del halo de un eclipse.

La energía electromagnética (que comprende la energía luminosa) transmitida por el Sol es absorbida por las plantas y transformada en energía química, pues éstas la utilizan para sintetizar sustancias orgánicas complejas. La energía química es la principal fuente de energía directamente aprovechable por el hombre, y sus alimentos y combustibles lo confirman claramente.

La hulla, por ejemplo, proviene de restos vegetales que absorbieron energía luminosa del Sol, hace millones de años, y que puede ser liberada al quemarse este carbón. Dentro de la física, la energía es una magnitud de gran importancia, por la razón de que no puede ser destruida.

Si para un determinado proceso realizamos un cómputo energético, la energía inicial es igual a la final. Por este motivo, la energía es una magnitud cuya medida resulta siempre útil. La aparición de esta magnitud en todas las ramas de la física refuerza su importancia. Es la única que interviene tanto en mecánica, como en óptica, termodinámica, acústica, electricidad, magnetismo, física nuclear, etc.

Muchas de las distinciones establecidas entre las diversas ramas de la física no están muy bien definidas precisamente porque la energía puede transformarse, al mismo tiempo, en dos o más modalidades. Un ciclista, al mover los pedales, está realizando un trabajo.

La fuerza que ejercen sus pies se transmite a las ruedas y las hace girar. La energía desarrollada por el ciclista se transforma en energía cinética, ya que tanto él como la bicicleta se mueven. La dínamo de la bicicleta convierte una pequeña fracción de la energía cinética en energía eléctrica, que se usa para calentar el filamento de una lámpara y hacer que ésta emita energía luminosa.

TIPOS DE ENERGÍA
La energía calórica encuentra su origen en cualquiera de las otras formas: si martillamos un clavo (energía mecánica), la cabeza del clavo se calienta; el Sol nos da su calor en el frío invierno y nos broncea en el verano (energía radiante); la corriente eléctrica y el gas natural (energía química) son capaces de proporcionarnos calor en las épocas de baja temperatura.

La energía lumínica nos es tan familiar que a veces no somos capaces de valorarla.

La energía química, es la que nos proporcionan los alimentos y los combustibles. Un dispositivo ingenioso proporciona energía eléctrica a expensas de una reacción química: la pila.

la energía eléctrica es un fenómeno de naturaleza parecida a la de los imanes y la que recibimos a diario desde la usina generadora. Se origina en una turbina que desarrolla energía mecánica a partir de la energía química que le proporciona el combustible.

La energía nuclear es la manifestación energética que el hombre ha descubierto más recientemente. Es también la más peligrosa porque aún no se la sabe controlar perfectamente y puede ser usada con fines no pacíficos. Esta energía se obtiene destruyendo el núcleo del átomo.

Si la operación es controlada, esa energía servirá para mover la turbina que fabrica electricidad ; si no se controla, se revivirán episodios tristes como el de Hiroshima y Nagasaki en la Segunda Guerra Mundial.

La energía mecánica la más familiar para todos, y no es más que la que se pone en juego en el movimiento del cuerpo de una maquinaria, el simple acto de martilla o golpear el parche de un tambor, el arrojar una piedra o batir un pote de crema. La física la clasifica en energía potencial y energía cinética.

La energía potencial es la que guardan come reserva los cuerpos en reposo. Cuando un niño de cuatro años ya lee y escribe todos dicen que el un «genio en potencia»; quieren decir que aún no es un genio, pero lleva en sí mismo cualidades «potenciales» que le permitirán serlo en el futuro.

En cambio la energía cinética (de kinema que en griego significa movimiento) es la energía que los cuerpos gastan al ponerse en movimiento. La energía cinética se diferencia de la potencial porque en aquélla influye un nuevo factor: la velocidad con la que el cuerpo se mueve. La humanidad todavía no tiene la última palabra en el tema energético. «Le llevó toda su existencia descubrirla y todavía no ha terminado de hacerlo».

MASA Y ENERGÍA:

La materia misma es una fuente de energía. Una masa pequeñísima es equivalente a una gran cantidad de energía. Concretamente, un gramo es equivalente a 931.000.000.000.000.000.000 ergios No es fácil, sin embargo, transformar la masa en energía. Esto sólo puede realizarse en circunstancias especiales; por ejemplo, en un reactor nuclear. Los átomos de uranio, al desintegrarse, «pierden» una pequeña fracción de su masa, la cual se convierte en energía.

Si un átomo fuera un estadio de fútbol, su núcleo sería como una mosca en el centro del campo de juego. Pero cuando se divide un núcleo inestable como el del Uranio, la energía desprendida por unos pocos kilogramos de este metal es equivalente a la explosión de miles de toneladas de TNT. Esta reacción llamada fusión ocurre normalmente sin detenerse en el sol.

El hombre reproduce este fenómeno en las usinas nucleares y en las bombas atómicas. Las bombas H tienen un poder que ronda las cien kilotoneladas (1 kilotonelada es igual a 1000 toneladas de TNT).

E=m.c2

La conversión teórica de masa en energía conduce a cantidades asombrosas. Estos ejemplos representan el equivalente de un kilogramo de masa convertido en energía:

– una plancha eléctrica encendida un millón de años.
– un acondicionador de aire en marcha 300.000 años.
– una caldera doméstica encendida sin parar de 25.000 a 30.000 años.
– un automóvil que da 180.000 veces la vuelta al mundo.
– el mayor buque cisterna dando 400 veces la vuelta al mundo.

Un escape pequeño puede ser grandísimo…
Einstein explicó la cantidad de energía que se pierde al transformarse la masa en energía, con la ecuación:

E=m.c2

Esta fórmula ha iniciado la era atómica y ha aclarado el mecanismo del sol como fuente de energía solar. La fórmula encierra la afirmación de que la masa puede transformarse en energía y viceversa. «E» quiere decir energía; «M» significa masa y «C» representa la velocidad de la luz en el vacío, es decir 300.000 kilómetros por segundo.

Elevando «C» al cuadrado (multiplicando el valor indicado por sí mismo), resulta una cifra astronómica. Quiere decir que una pequeña cantidad de masa puede transformarse en una gigantesca cantidad de energía. Pensemos en una bomba atómica, o en el Sol, que perdiendo una cantidad insignificante de materia, ha podido irradiar energía durante tanto tiempo y estará en condiciones de hacerlo por miles de millones de años.

FUENTES DE ENERGÍA: Se denominan fuentes de energía o recursos energéticos todos aquellos componentes de la Naturaleza a partir de los cuales es posible obtener energía utilizable por el hombre. Casi todas las fuentes de energía proceden en última instancia del Sol. Esta energía solar, o bien se utiliza directamente, o bien da lugar a la formación del resto de los recursos energéticos

 Así, las plantas utilizan directamente la energía solar para producir sus alimentos, con lo que crecen y se desarrollan, originando a su vez nuevos recursos energéticos como el carbón, que procede de la fosilización de cantidades inmensas de plantas que han estado enterradas durante miles de años.

Las fuentes de energía se clasifican normalmente atendiendo al carácter de que se agoten al paso del tiempo o de que sean prácticamente inagotables. Así, se distinguen las energías renovables y las energías no renovables.

« Son energías renovables aquellas que existen en cantidades ilimitadas y, por tanto, no se agotan por mucho que se utilicen. Entre las energías renovables están la energía solar, la hidráulica, la eólica. la de la biomasa y la maremotriz.

» Son energías no renovables aquellas que existen en cantidades limitadas en la Naturaleza, de forma que se agotan a medida que se van utilizando. Entre las energías no renovables están la energía del petróleo, la del carbón, la del gas natural, la geotérmica y la nuclear.

Las fuentes de energía también pueden clasificarse atendiendo a la incidencia que tengan en la economía de un país en un momento determinado. Así se tienen las energías convencionales  y as energías no convencionales.

• Se llaman fuentes de energía convencionales aquellas que tienen una ¿reincidencia en el consumo energético de los países industrializados.

Entre las fuentes de energía convencionales se pueden citar todas las fuentes de energía no renovables y la energía hidráulica.

• Se llaman fuentes de energía no convencionales o energías alternativa aquellas que hoy día se encuentran en fase de estudio con el propósito de  sustituir o reforzar en un futuro a las fuentes de energía convencionales. Entre las fuentes de energía no convencionales se pueden citar la energía  solar, la eólica, la maremotriz, la geotérmica, la de la biomasa, etc.

Fuente Consultada:
Revista TECNIRAMA N°67
FÍSICA II Polimodal
FÍSICO-QUIMICA Secundaria Santillana

Particulas elementales de la Materia quarks, bosones La antimateria

PARTÍCULAS ELEMENTALES DE LA MATERIA

Los fundamentos de la física atómica

La materia está constituida por un reducido número de las denominadas partículas elementales, cuyas propiedades pueden explicar la mayor parte de los fenómenos físicos que aquélla experimenta.

Las primeras partículas elementales halladas por el hombre fueron las moléculas que integran los distintos compuestos químicos existentes en la naturaleza. Después se descubrió que más elementales aún que las moléculas son los átomos que las constituyen, a su vez compuestos por un núcleo y unas partículas cargadas negativamente, los electrones, que se mueven en torno a él.

Más adelante las investigaciones revelaron que el núcleo de los átomos está formado por dos tipos de partículas, los neutrones, que no poseen carga, y los protones, de carga positiva.

Si bien hasta hace relativamente poco se pensó que protones y neutrones eran las partículas más pequeñas de la naturaleza, desde 1933 se han descubierto más de 200 partículas diferentes, todavía más elementales, más simples y de tamaño más reducido que el protón, el neutrón y el electrón.

Cada una de ellas, distintas entre si, está compuesta por cuatro subpartícutas básicas, denominadas quarks.

Actualmente, se sabe que ni los átomos, ni los electrones, ni los protones ni los neutrones son indivisibles. La duda está en identificar cuáles son las verdaderas partículas elementales. Dado que la longitud de onda de la luz es mucho mayor que el tamaño de un átomo, no es posible emplear la luz como instrumento para ver las partes que lo constituyen.

https://historiaybiografias.com/linea_divisoria1.jpg

LISTA DE TEMAS TRATADOS:

1-¿Que es un Atomo?
2-La Energía Nuclear y sus Usos
3-La Física Moderna
4-La Fisión Nuclear
5-Partículas Elementales
6-Vida de Max Planck
https://historiaybiografias.com/linea_divisoria1.jpg

Las partículas elementales

Mediante la dualidad onda-partícula de la luz se puede describir todo en el Universo en términos de partículas; éstas poseen una propiedad, llamada espín, que establece su dirección. Todas las partículas se pueden dividir en dos grupos: las que poseen espín 1/2, que constituyen la materia, y las de espín 0, 1 y 2, que dan lugar a las fuerzas entre partículas materiales.

La teoría formulada por Dirac, en 1928, estableció a relación entre la mecánica cuántica y la relatividad propuesta por Einstein. Dirac explicó matemáticamente la razón por la cual el electrón posee espín 1/2, y predijo, además, que el electrón debía tener una pareja o antipartícula, el positrón. El descubrimiento del positrón, en 1932, motivó la concesión del premio Nobel al científico..

Imagen de un acelerador de partículas

Fuerzas de interacción entre partículas

En mecánica cuántica las partículas experimentan fuerzas de interacción entre ellas. Cada partícula elemental, como un electrón o un quark, emite una partícula portadora de fuerza, que colisiona con otra partícula material y es absorbida por ella. Si en la emisión de la partícula portadora de fuerza la partícula material que la emite cambia de velocidad por el retroceso experimentado en la emisión, también la partícula que la absorbe ve modificada su velocidad.

Dado que las partículas portadoras de fuerza no obedecen al principio de exclusión de Pauli, puede existir un número enorme de partículas intercambiables, con lo que se podrían producir una serie de fuerzas de interacción muy potentes.

Según la intensidad de la fuerza y del tipo de partículas implicadas, cabe distinguir cuatro tipos:

Fuerza gravitatoria

Es la fuerza experimentada por las partículas y, en general, por todos los cuerpos, por el simple hecho de poseer masa o energía. Es la más débil de las cuatro y se caracteriza por su gran alcance y porque siempre es atractiva. En mecánica cuántica se representa por una partícula de espín 2, que se llama gravitrón, y que no posee masa propia. Así, por ejemplo, la fuerza gravitatoria entre la Tierra y el Sol se entiende como un intercambio de gravitrones entre los dos cuerpos, más concretamente entre las partículas que los forman.

Fuerza electromagnética

Es la experimentada por las partículas cargadas eléctricamente y resulta muchísimo más intensa que la gravitatoria. Como la fuerza eléctrica entre dos cuerpos se traduce en mecánica cuántica en la atracción o repulsión entre las partículas que los componen, en general se anulan las fuerzas atractivas con las repulsivas, y el efecto es un  cuerpo en estado neutro. Si no se anulan por completo, casi llegan a hacerlo, por lo que el resultado es una fuerza electromagnética neta muy débil. No obstante, dominan a distancias muy pequeñas, como es el caso de los átomos y moléculas.

La fuerza de atracción eléctrica entre los protones del núcleo y los electrones de la corteza hace que éstos giren describiendo órbitas alrededor del núcleo del átomo.

El fotón es la partícula elemental que representa este tipo de fuerza, que se entiende como un intercambio de esta clase de partículas.

Fuerza nuclear fuerte

Es la que mantiene unidos a los quarks en el protón y el neutrón, y a éstos en el núcleo del átomo. Se piensa que es transmitida por otra partícula, llamada gluón, que sólo interacciona con los quarks y consigo misma. Para energías normales esta fuerza es muy inténsa, pero a altas energías se debilita, de manera que los quarks y los gluones se comportan como partículas casi libres.

Fuerza nuclear débil

Es la causante de la radiactividad, y actúa sobre todas las partículas materiales de espín 1/2, pero no sobre los fotones o los gravitrones, es decir, partículas de espín 0, 1 y 2.

En 1967 Salam y Weimberg propusieron una teoría para unificar esta fuerza con la electromagnética, y sugirieron la existencia de otras tres partículas de espín 1 además del fotón: los denominados bosones. Según esta hipótesis, para grandes energías (superiores a 100 GeV) los tres bosones y el fotón se comportarían de forma similar1 pero a energías más bajas los bosones adquirirían una gran masa y la fuerza que transmitirían sería de corto alcance. Esta teoría fue comprobada y ratificada más tarde, cuando se construyeron potentes aceleradores de partículas, capaces de alcanzar energías tan grandes. Las tres partículas compañeras del fotón fueron definitivamente identificadas en 1983, en el Centro Europeo para la Investigación Nuclear (CERN).

Antimateria

En la actualidad, se sabe que para cada tipo de partícula existen también antipartículas, y que si interacciona una partícula con su correspondiente antipartícula pueden aniquilarse. Pero no existe el mismo número de unas que de otras; en realidad, en condiciones normales no hay antiprotones ni antineutrones, éstos sólo se producen en los grandes aceleradores de partículas. Tampoco en el espacio hay más que unos pocos antiprotones y antineutrones en comparación con la cantidad de protones y neutrones existentes.

Si existiera una gran cantidad de antimateria en comparación con la materia, se producirían múltiples colisiones en el espacio, que provocarían la emisión de una gran cantidad de radiación; así, las partículas se aniquilarían con las antipartículas, desapareciendo la mayor parte de la materia existente.

En general, se acepta que todo el espacio está formado por quarks, no por antiquarks, porque las leyes de la física son diferentes para las partículas y las antipartículas. Siempre se había creído que las leyes de la física poseían tres simetrías:

C, P y 1. La simetría C supone que las leyes son las mismas para partículas y antipartículas; la simetría P, que las leyes son idénticas para, una situación cualquiera y su imagen especular, y la simetría 1 supone que el movimiento de un sistema no se altera si se invierte la dirección del movimiento de todas las partículas y antipartículas. Sin embargo, se ha demostrado que la interacción débil no cumple la simetría P, es decir, el efecto de la interacción débil hace que evolucionen de forma diferente las partículas de las antipartículas. Tampoco posee simetría C, ni simetría combinada PC.

Ver: Dualidad de la Materia, Onda o Partícula?

Ver: Los Estados de la Materia

Ver Tambien:

Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes

Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

El Atomo Composicion Energia Nuclear Electrones y Protones Particulas

El Atomo Composición Energía Nuclear
Electrones y Protones Partículas

https://historiaybiografias.com/linea_divisoria1.jpg

LISTA DE TEMAS TRATADOS:

1-¿Que es un Atomo?
2-La Energía Nuclear y sus Usos
3-La Física Moderna
4-La Fisión Nuclear
5-Partículas Elementales
6-Vida de Max Planck
https://historiaybiografias.com/linea_divisoria1.jpg

UN POCO DE HISTORIA…
La crisis de la Física clásica

atomoEn los últimos años del siglo XIX se creía que la Física, como disciplina teórica, se encontraba prácticamente terminada. Las leyes de Newton para la dinámica y las ecuaciones de Maxwell para los fenómenos electromagnéticos permitían explicar satisfactoriamente todos los fenómenos conocidos.

Sin embargo esta Física, a la que se suele llamar Física clásica, resultó ser insuficiente cuando pretendía explicar los comportamientos de los átomos y sus componentes, por un lado, y los nuevos descubrimientos astronómicos, por otro.

La Física clásica, útil para describir el entorno directamente observable, no era aplicable para interpretar el mundo subatómico (interior de los átomos) y el Cosmos.

Los datos recogidos en uno y otro campo dieron lugar a la aparición de dos nuevas ramas de la Física: la Mecánica cuántica, para explicar los comportamientos de las partículas elementales, y la Relatividad, para interpretar el Universo que llegaba a través de los telescopios.

A partir de ahora vamos a explicar someramente como está constituido un átomo, es decir, cuales son las partículas básicas que los conforman y como funciona interiormente mediante un modelo atómico que ha sido conseguido mediante la observación experimental de varias de décadas.

INTRODUCCIÓN TEÓRICA: Profundizar en el conocimiento de como está constituida la materia ha sido siempre uno de los grandes objetivos del pensamiento humano.

La idea de que toda la materia que forma el mundo físico está formada por partículas muy pequeñas, separadas por espacios vacíos data ya de los filósofos griegos, especialmente de Demócrito, que vivieron en el siglo V a. C.

Los pensadores helenos se plantearon la siguiente pregunta: si tomamos un trozo de hierro, por ejemplo, y lo cortamos en partes más pequeñas, ¿se podrá seguir cortando indefinidamente o bien llegará un momento en que encontremos una partícula de hierro que sea indivisible y no pueda cortarse más? .

El filósofo Demócrito opinó que debía existir una última partícula que ya no podía ser dividida en otras más pequeñas y la denominó átomo (en griego átomo quiere decir indivisible).

Si se partiera la materia en pedazos cada vez más pequeños llegaríamos finalmente al átomo, la partícula más pequeña posible de cualquier sustancia. Los átomos son tan diminutos, que unos seis millones de ellos cabrían en el punto que concluye esta frase. Alguna vez se pensó que eran las unidades últimas e inseparables que formaban el universo. La palabra «átomo» proviene del griego átomos, que significa invisible.

Desgraciadamente, las ideas de Demócrito fueron combatidas por Aristóteles y por este motivo fueron rechazadas durante largo tiempo a causa del prestigio universal del gran filósofo griego.

A partir del siglo XIX empezaron a aparecer las primeras teorías científicas sobre la constitución de la materia, que retomaron el concepto de átomo y que posteriormente han ido imponiéndose hasta la actualidad.

daltonEl atomismo cayó rápidamente en el olvido; fue rechazado por Platón y Aristóteles, que siguieron la teoría de Empédocles sobre los cuatro elementos (fuego, aire, agua y tierra). Sigue un largo periodo que alcanza los siglos XVII y XVIII en que la investigación química se rodeó de misterio y buscó la piedra filosofal.

Las primeras evidencias de la teoría atómica se deben a Lavoisier y Proust. Es John Dalton, sin embargo, quien a principios del siglo XV sienta las bases de la moderna teoría sobre el átomo. Sus trabajos sobre la composición de los gases le condujeron a formular,  en 1805, John Dalton expuso sus ideas sobre la constitución atómica de la materia, que pueden resumirse del modo siguiente:

  1. a) La materia está constituida por partículas muy pequeñas e indivisibles, denominadas átomos.
    b) Los átomos de un mismo elemento son iguales entre sí.
    c) Los compuestos están formados por átomos distintos.
    d) Los átomos de distintos elementos tienen distinta masa y distintas propiedades.
    e) La masa total de las sustancias que intervienen en las reacciones químicas no varía, ya que los átomos son invariables.

Así pues, de las ideas de Dalton se deduce que un átomo es la parte más pequeña de un elemento que puede intervenir en una reacción química mientras que una molécula es la parte más pequeña de un compuesto que conserva todas las propiedades del mismo.

El átomo es la partícula más pequeña e indivisible de un elemento químico que contiene íntegras sus propiedades. Su estudio constituye la base de la física y la química contemporáneas. Los átomos de un elemento se pueden combinar con los de otro para formar la unidad más pequeña de un cuerpo compuesto, llamada molécula, que, a su vez, se une con otras para formar los propios cuerpos compuestos.

Dalton acuñó los conceptos de peso atómico y molécula (formada por la combinación de varios átomos) y elaboró la primera tabla de elementos en 1805. Posteriormente, las nociones de átomo y moléculas no dejaron de precisarse y concretarse.

La clasificación periódica de los elementos de Mendeleiev (1869) vino a coronar los esfuerzos de los químicos y a anunciar que todo el Universo puede estar formado sólo por un centenar de átomos diferentes.

Estructura del átomo

Todo átomo está constituido por tres partes: una parte eléctricamente positiva, formada por los protones; otra eléctricamente negativa, compuesta por electrones, y una tercera integrada por minúsculas partículas neutras denominadas neutrones.

La carga electrónica del protón y la del electrón son iguales y contrarias; como los átomos suelen existir en forma neutra, el número de electrones de un átomo debe ser igual al de protones.

Los electrones ocupan el espacio más externo del átomo; y los protones se sitúan en el centro, y, con los neutrones, constituyen el núcleo.

Los electrones y los protones de todos los elementos químicos son iguales, por lo que éstos se diferencian por el número de protones, de neutrones y de electrones presente, mi su interior.

orbitas atomo

La materia es, en general, eléctricamente neutra pero en su interior existen cargas eléctricas como se pone de manifiesto, por ejemplo, en la pérdida o ganancia de electrones por frotamiento o por otros métodos.

El descubrimiento del electrón y del protón vinieron a corroborar el carácter eléctrico del átomo.

Se llama número atómico (Z) al número de protones que tiene un átomo. El número atómico es característico de cada elemento, de manera que todos los átomos de un mismo elemento tienen el mismo número de protones en su núcleo.

Se llama número másico (A) al número de nucleones que tiene un átomo. El número másico es igual al número de protones más el número de neutrones. Si se adopta como unidad de masa la masa de un protón o de un neutrón la masa de un átomo será igual a su número másico.

A pesar de tener el mismo número de protones, dos átomos de un mismo elemento pueden tener diferente número de neutrones.  Dicho de otro modo, los átomos de un mismo elemento siempre tienen el mismo numero atómico pero pueden tener distinto número másico. Se llaman isótopos los átomos de un mismo elemento que se diferencian en su número másico.

Un elemento químico está formado generalmente por una mezcla ole isótopos que se presentan con distinta frecuencia en la Naturaleza.

Tabla con el valor de la carga eléctrica en Coulomb y la masa en Kg. de cada partícula del átomo.

Tabla con el valor de la carga eléctrica

LOS DESCUBRIMIENTOS DE LAS PARTÍCULAS:  (puede ampliar este tema con profundidad: clic!)

EL ELECTRÓN:  La comunidad científica siempre dudó sobre el «átomo indivisible»  y le correspondió al investigador J.J. Thompson el descubrir esta partícula, mediante el uso de un tubo de descargas, que consiste en un tubo de vidrio provisto de dos electrodos, uno positivo o ánodo y otro negativo o cátodo, conectados a una fuente de alto voltaje (de varios miles de voltios).

Interiormente está lleno de gas a baja presión, cuando se cierra el circuito, se observa que se produce el paso de corriente a través del gas, al mismo tiempo que aparece una luminosidad que se concentra en el extremo del ánodo.

La fluorescencia que se observa en los tubos de descarga se debe a la emisión por el cátodo de ciertas radiaciones.

Estas radiaciones, o rayos catódicos poseen propiedades especiales, que permitió a Thompson deducir que los rayos catódicos están formados por cargas eléctricas negativas que llamó electrones, y son partículas que se encuentran presentes en toda la materia.

PROTÓN:  Puesto que la materia en conjunto es eléctricamente neutra y los electrones tienen carga negativa, cada átomo debe tener una carga positiva exactamente igual a la carga debida a sus electrones. Ahora bien, ¿cómo se distribuye dicha carga?

Rutherford dedujo que si la carga positiva y la masa de los átomos se encuentran distribuidas uniformemente en todo el volumen atómico, cuando se bombardea el átomo de un  material con partículas alfa, que tienen carga positiva, deberán desviarse ligeramente al atravesar la lámina metálica.

ruthenfordEn 1911, Ernest Rutherford, sucesor de J. J. Thomson en la cátedra de Cambridge, bombardeó láminas delgadas de distintos metales con partículas emitidas por un isótopo radiactivo y comprobó que la mayoría de las partículas atravesaban la lámina metálica sin experimentar desviación, pero que una pequeña parte se desviaba ligeramente y otra pequeña fracción rebotaba y volvía hacia las proximidades del centro emisor de las partículas.

Para explicar los resultados obtenidos, Rutherford supuso que la carga positiva del átomo se hallaba concentrada en una zona muy pequeña del átomo a la que denominó núcleo, que además contenía la práctica totalidad de la masa del átomo.

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos.

Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica.

Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford.

En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía. Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo. Es decir, el átomo imaginado por Rutherford era inestable.

EL NEUTRÓN: El átomo de helio contiene dos protones, por lo que cabría esperar que su masa fuera el doble de la masa de un protón (2 • 1,67 • 10-27 kg = 3,34 • 10-27 kg); sin embargo, la masa medida experimentalmente, 6,69 • 10-27 kg, es más del doble de la esperada.

cientificoEsta diferencia entre la masa calculada y la masa medida puede explicarse si se admite que los átomos contienen otras partículas, sin carga eléctrica, además de los protones y los electrones.

En 1932, el físico inglés James Chadwick descubrió que los núcleos de berilio podían emitir partículas sin carga eléctrica. Estas partículas, procedentes del núcleo, recibieron el nombre de neutrones. La masa de cada una de estas partículas era aproximadamente igual a la masa del protón.

La diferencia entre la masa real de un núcleo y la masa debida exclusivamente a los protones corresponde a la masa de los neutrones que contiene dicho núcleo.

EL EFECTO FOTOELÉCTRICO: A principio del siglo XX, había un fenómeno físico que se llamaba radiación del cuerpo negro, que explicarlo mediante las herramientas de la física clásica de ese momento era casi imposible.

Un científico llamado  Max Planck estudió profundamente este efecto y mediante originales postulados físicos formuló una nueva teoría sobre la energía que hoy la llamamos cuántica, que mas tarde se recurrirá a ella para explicar otros fenómenos naturales como el fotoeléctrico y también permitirá definir un nuevo y mas real modelo atómico.

El efecto fotoeléctrico consiste en la emisión de electrones por un metal cuando sobre él incide un rayo luminoso de una frecuencia determinada.

Si la luz fuera una onda, cualquier tipo de luz debería ser capaz de provocar la emisión de electrones, es decir, arrancar electrones de un material, siempre y cuando tuviera la suficiente intensidad.

También se observaba que se producía este efecto, también a la vez, se emitía una radiación electromagnética que impresionaban una placa fotográfica, creando rayas espectrales de colores y oscuras,  llamado comúnmente espectro electromagnético y que según que elemento se estudiaba los espectros tenían características diferentes.

Esto también conmovió el interés de todos los científicos. Abajo se observa un espectro de un elemento químico.

espectro

espectros

Utilizando en el laboratorio un dispositivo especial  en que esa emisión de electrones (al incidir un rayo de luz) se detecta porque produce paso de corriente a través de un circuito, se observa que el efecto fotoeléctrico no se produce con cualquier tipo de luz y que hay una frecuencia umbral por debajo de la cual no se produce este fenómeno.

Esto contradecía totalmente a lo esperado por la teoría clásica de esa época.

Para explicar este nuevo efecto, donde toda la comunidad científica estaba perpleja, el gran sabio del siglo Albert Einstein  recurre a la nueva física cuántica de Planck y explicó matemáticamente este fenómeno, que lo llevó a ganar el Premio Nobel de la Física en 1916.

Según la teoría cuántica, la energía no puede ser absorbida o desprendida de manera continua sino en pequeños paquetes o haces de energía, que son múltiplos de una cantidad mínima de energía denominada «quantum».

La ecuación de Planck E = h . v permite determinar la energía asociada a cualquier radiación, conociendo la frecuencia v de la radiación y siendo h = 6,62.10 -34 Js la constante de Planck, que es una constante universal.

En 1905, Albert Einstein explicó el efecto fotoeléctrico a partir de la hipótesis cuántica de Planck y del supuesto de que la luz, en ocasiones, no se comporta como una onda, sino como un chorro de corpúsculos, los fotones.

BohrCon todos estos nuevos elementos Bohr analizó lo siguiente: cuando un átomo en su estado fundamental recibe energía bien sea por calentamiento o por la acción de una radiación se convierte en un átomo excitado. Cuando cesa la causa que produce la excitación, el átomo se desactiva emitiendo radiaciones que impresionan placas fotográficas produciendo una serie de rayas, que constituyen el espectro atómico del átomo correspondiente.

A cada raya del espectro le corresponde una energía determinada, cuyo valor depende de su frecuencia, de acuerdo con la ecuación de Planck. En el caso del átomo de hidrógeno, el espectro atómico consta de varias series de rayas.

Bohr estableció una serie de postulados, que constituyen el modelo atómico de Bohr, para intentar solventar los inconvenientes que presentaba el modelo atómico de Rutherford. Para ello, Bohr introdujo la teoría cuántica de Planck y comprobó sus resultados con los datos experimentales suministrados por los espectros.

Los postulados de la teoría atómica de Bohr son los siguientes:

  1. a) Los electrones giran alrededor del núcleo describiendo órbitas circulares sin emitir energía. Con este primer postulado Bohr intenta obviar el principal inconveniente que presentaba el modelo atómico de Rutherford, suponiendo que a nivel atómico las partículas en movimiento no emiten energía.
  2. b) Si un electrón pasa de una órbita más externa a otra más interna el átomo emite energía, de modo que la energía liberada coincide con la diferencia de energía que hay entre ambos niveles y viene dada por la expresión E = h.v. Este postulado justifica las rayas espectrales de los átomos. (v: frecuencia de la emitida por el material)
  3. c) Únicamente son posibles las órbitas en las que el momento angular del electrón es un número entero de veces h/2Pi. Este tercer postulado impide que el número de órbitas posibles sea ilimitado ya que la energía está cuantizada. (Pi=3.14)

Ejemplo del Salto de Energía Cuántico de un Electrón

Cuando un electrón pasa de una capa externa a otra interna el  valor de la energía de la radiación emitida es directamente proporcional a su frecuencia. Así, cuando un electrón salta desde una órbita de mayor energía, E2, a otra de energía menor, E1 se emitirá una radiación de frecuencia, v, cuya energía será igual a:
E2- E1 = h.v
donde h es la constante de Planck.

energia de un atomo en sus orbitas

Un determinado elemento químico siempre ofrece el mismo espectro porque todos sus átomos son iguales, de manera que en todos ellos las órbitas tienen una forma, un tamaño y una energía característicos. En consecuencia, la diferencia de energía entre dos órbitas siempre será la misma y, por tanto, la frecuencia de la radiación emitida o absorbida siempre tendrá el mismo valor.

Aplicando estas ideas y utilizando un tratamiento matemático no demasiad: complicado, Bohr calculó teóricamente las frecuencias de las líneas que aparecen en el espectro del átomo de hidrógeno .

Sin embargo. cuando intentó realizar el cálculo para otros átomos distintos del hidrógeno, los resultados teóricos no coincidían con los datos experimentales.

El modelo atómico de Bohr obtuvo un gran éxito inicialmente porque consiguió explicar con gran exactitud el valor de una importante constante (de Rydberg), que únicamente había podido ser obtenido empíricamente, así como el valor del radio del átomo del hidrógeno en su estado fundamental y el valor del potencial de ionización del átomo de hidrógeno.

Ahora bien, el modelo atómico de Bohr tan sólo era aplicable al hidrógeno y a átomos similares, los denominados átomos hidrogenoides, pero no resultaba satisfactorio para explicar los átomos polielectrónicos.

En 1915 Sommerfeld amplió el modelo atómico de Bohr, haciéndolo extensivo a órbitas elípticas. De este modo, se pudo explicar el hecho de que las rayas espectrales del hidrógeno que se creía que eran sencillas en realidad estaban formadas por varias líneas muy próximas. Es decir, que cada nivel energético estaba, en general, formado por varios subniveles energéticos.

Los valores de la energía de los electrones de un átomo dependen de una serie de parámetros denominados números cuánticos.

Los números cuánticos son: el número cuántico principal, el número cuántico secundario, el número cuántico magnético y el número cuántico de spin.

tabala resumen atomo

 MODELOS ATÓMICOS: En base a estos estudios anteriores fueron creándose distintos modelos ideales para trata de interpretar la naturaleza del átomo, sus propiedades y su funcionamiento.

  1. a) Modelo de Thompson:

 atomo pan dulce

  1. b) Modelo de Rutherford. Concepto de átomo según el cual la mayoría de la masa se localiza en el núcleo, ocupando los electrones el resto del volumen atómico, y girando en torno a aquél como los planetas alrededor del Sol. Pero esa teoría tenía un defecto: un electrón en moví miento debería radiar energía y, por tanto, el átomo no sería estable lo cual no coincidía con la realidad,atomo y sus orbitas

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos. Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica. Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford. En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía. Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo. Es decir, el átomo imaginado por Rutherford era inestable.

  1. c) Modelo de Bohr: Concepto del átomo en que se suponía a los electrones situados en un número limitado de órbitas circulares alrededor del núcleo (estado estacionario). Las emisiones o absorciones de radiación electromagnética se producirían únicamente cuando alguno de los electrones pasase de una órbita a otra. Este modelo surgió de su colaboración con Rutherford, y revolucionó la física atómica. Bohr combinó el modelo con la teoría cuántica de Planck y as teorías de Einstein, enunciando los  siguientes postulados:

1) El átomo posee cierto número de órbitas estacionarias, en las que los electrones no emiten energía aunque se muevan.

2) El electrón gira alrededor del núcleo de tal manera que la fuerza centrifuga equilibra exactamente la atracción electrostática de las cargas opuestas.

3) El momento angular del electrón en un estado estacionario es un múltiplo de h/2Pi, donde h es la constante cuántica universal de Planck.

4) Cuando un electrón pasa de un estado estacionario más energético a otro inferior (más próximo al núcleo), la diferencia de energía se emite en forma de un cuanto de radiación electromagnética (fotón). Inversamente, un electrón sólo interacciona con un fotón cuya energía le permita pasar exactamente de un estado estacionario a otro de mayor energía.

capas de un atomo

  1. d) Modelo  de Sommerfeld. Concepto de átomo desarrollado a partir del de Bohr, pero considerando las órbitas elípticas y dotadas de otros dos números cuánticos: el acimutal, que define la forma de la órbita elíptica del electrón; y el magnético, del que depende la orientación de la órbita en el espacio. Posteriormente, Pauli añadió el cuarto, el spin. También introdujo en el átomo conceptos relativistas: la masa del electrón varía como consecuencia de su velocidad.

El conocimiento del átomo se completó con la ecuación de onda de Schródinger, el principio de dualidad onda-corpúsculo, el principio de incertidumbre de Heisenberg y el concepto de orbital. Actualmente se sabe que el átomo está constituido por un determinado número de partículas elementales, fundamentalmente protones, electrones y neutrones, y que es eléctricamente neutro.

Se distinguen en él dos partes principales: el núcleo, que contiene los protones y los neutrones, es muy pesado (representa el 99,9% de la masa total) y lleva toda su carga positiva; y los electrones, situados en orbitales alrededor del núcleo, y en el mismo número que los protones para que neutralicen la carga nuclear.

botonVer: Dualidad de la Materia, Onda o Partícula?

Ver Tambien:

Naturaleza de la Materia
Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes

Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

Biografia de Einstein Albert Obra Cientifica y Vida

Biografía de Albert Einstein
Vida y Obra Científica del Físico

Albert Einstein (1879-1955) fue un físico alemán de origen judío, nacionalizado después suizo, austríaco y estadounidense. En 1905  publicó su teoría de la relatividad especial, para generalizarla  a partir de 1915.

Premio Nobel de Física por la explicación del efecto fotoeléctrico.Una de las consecuencias fue el surgimiento del estudio científico del origen y la evolución del Universo por la rama de la física denominada cosmología.

Albert Einstein es, de un modo indiscutible, una de las figuras más importantes de nuestro siglo. La genialidad de sus concepciones ha trascendido hasta la vida misma.

C

Si no hubiera existido, otros físicos habrían realizado ese trabajo con el paso del tiempo. Algunos descubrimientos habrían aparecido pocos años después, otros se habrían demorado décadas.

La teoría general, su más grande logro y el de mayores implicaciones, no estaba en la mente de nadie en los tiempos en que Einstein la desarrolló.

Hoy por hoy, ¿la habrían descubierto ya los científicos? Nadie lo sabe.

La nueva visión del universo con sus teorías revolucionarias comenzó hace un siglo en una siemple oficina de patentes en la ciudad de Berna (Suiza), donde en sus ratos libres empezó a deducir sus primeras fórmula, que con el tiempo tanto dolores de cabeza daría  resolverlas a los matemáticos de la época.

Transformando el legado científico de las ciencias físicas, llegó a establecer la relatividad de las nociones de espacio y de tiempo, la inercia y la energía y, de un modo geométrico, interpretó las fuerzas de gravitación.

Como expresó Louis de Broglie, la obra de Einstein es «admirable, comparable a las más grandes que se puedan encontrar en la historia de la ciencia, como por ejemplo la de Newton…»

albert einstein

Desde que Einstein lanzó los fundamentos de la teoría de la relatividad, los cimientos de la ciencia parecieron conmoverse: contracción de Lorentz-Fitzgerald, enlentecimiento aparente de los relojes en movimiento, variación de la masa con la velocidad en el movimiento de las partículas rápidas, fórmulas nuevas conteniendo los términos suplementarios para la aberración y el efecto Doppler, nuevas fórmulas para la composición de las velocidades permitiendo encontrar de nuevo y directamente como una simple consecuencia de la cinemática relativista la célebre fórmula de Fresnel —verificada por Fizeau— dando el arrebato de las ondas luminosas por los cuerpos refringentes en movimiento, etc.

En suma, sólo enunciando las aportaciones de Einstein, ya es factible decir que la primera mitad del siglo XX se vio favorecido por un extraordinario despliegue de la física, uno de los más brillantes de la historia de la ciencia en general.

En muy pocos años, la ciencia obtuvo dos logros fuera de toda ponderación: la teoría de la relatividad y la de los quanta o teoría cuántica ; veamos, pues, el primero, obra de Albert Einstein, este espíritu del que la humanidad siempre tendrá que enorgullecerse, y que será contemplado desde todos los ángulos que puede ofrecer el hombre.

*********** 00000 ***********

 MENU DE OPCIONES DE TEMAS RELACIONADOS

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

BIOGRAFÍA DEL FÍSICO ALBERT EINSTEIN

Albert Einstein nació el 14 de marzo de 1879 en Ulm, la ciudad sobre el Danubio, que según es sabido se sitúa en el término de Wurtemberg. Pero esta ciudad prácticamente sólo le vio nacer. Un año después la familia se trasladó a Munich, donde  consumará la primera etapa de su formación.

En Munich, cumplida la edad escolar, fue inscrito en una escuela católica, en la que sabrá ver sus profundas semejanzas con la judía.Sus primeros pasos como escolar no fueron brillantes.

Incluso se llegó a pensar que no estaba dotado para el estudio, debido a su carácter taciturno, lentitud para aprender las cosas y dificultades en el lenguaje.

Albert y Maja (que había nacido a fines de 1881) eran muy apegados de niños, y de adultos mantuvieron una cariñosa relación.

La mayor parte de lo que sabemos hoy sobre la niñez de Einstein se le debe a Maja, quien años después escribió un librito sobre los primeros años de su hermano.

En su libro, Maja describe a Albert a la edad de cuatro años como un niño tranquilo, aislado, que no disfrutaba jugando con otros niños. Escribió que sus padres temían que Albert fuera retrasado pues aprendió a hablar muy tarde. Einstein recordaría después que sus padres lo llevaron donde el médico para saber si su lento desarrollo del lenguaje indicaba que algo iba mal.

La demora de Albert pudo haberse debido a timidez y orgullo; incluso a los dos años de edad quería hacer las cosas bien y evitar las faltas. Albert dijo más tarde que cuando joven había tomado la decisión da hablar sólo con frases completas.

Ensayaba la frase entera en su mente, a veces moviendo los labios, y cuando pensaba que la tenía lista la decía en voz alta.

El niño era realmente diferente de sus pares.

albert einstein y su hemana majaAlbert Einsten y su hemana Maja

Las ciencias pedagógicas en aquel tiempo no estaban muy avanzadas, al menos en el terreno para percibir sus posibles resultados, y en el caso de Einstein no supieron ver que aborrecía los ejercicios memorísticos y se encariñaba con la agradable sensación de pensar las cosas.

El propio Einstein, recordando este período poco feliz, recordaba con agrado la brújula de marinero que le regaló su padre cuando cumplió cuatro años, brújula en la que a través del imán creyó ver el primer misterio del universo: «Sólo la brújula quedaba en mi memoria de todo cuanto había hecho durante el día.»

Cumplidos los quince anos, una serie de acontecimientos tenían que cambiar algunos aspectos de su vida. En efecto, a raíz de unos reveses económicos, su padre Hermann decidió abandonar Munich y probar fortuna en Italia.

Se trasladó a Milán, donde tenía familia, dejando a su hijo en Munich en la pensión de una vieja amiga con el objeto de que terminara sus estudios.

Pero recibe unas cartas entusiastas de su madre y, de un modo brusco, abandonó Munich para instalarse en Italia; Einstein contaba dieciséis años y tenía unos infinitos deseos de libertad intelectual.

Los primeros contactos con la península italiana el propio Einstein los califica como de ensueño. La luz, el arte, especialmente Miguel Ángel, le lanzan a los ratos de ocio que encontraba a faltar.

pauline einstein madre de albert

Pauline, la madre de Einstein, pianista consumada, deseaba que sus hijos entraran en contacto con la música desdetemprana edad. Matriculó a Einstein en clases de violín y a su hermana en clases de piano. Las clases de Einstein comenzaron cuando tenía seis años y terminaron cuando tenía catorce. La mayor parte del tiempo detestaba las clases porque no le gustaban los métodos mecánicosy rutinarios de los profesores. Con todo, a los trece años se enamoró de las sonatas de Mozart y su
interés en la interpretación de la música se centró en ellas. Desde ese momento en adelante procuró mejorar su técnica para ser capaz de reproducir la belleza y el donaire de la música de Mozart.
Más tarde estudió piano en forma autodidacta e improvisaba en ocasiones. El violín lo acompañó toda la vida: se convirtió en un buen violinista aficionado y le gustaba tocar las sonatas de Mozart y Beethoven.

Empezó a visitar, en ocasiones a pie, las ciudades de Padua, Florencia, Siena, Perusa y Genova. Pero las presiones familiares, inflexibles en lo tocante al término de sus estudios, le obligaron a regresar a Munich, donde sufrió el primer tropiezo al no poder ingresar, debido a unas pruebas juzgadas insuficientes, en la universidad.

rostros de einstein

Paradójicamente, obtuvo unas calificaciones muy bajas en física y matemáticas. Uno de los examinadores le aconsejó trasladarse a Aarau, para perfeccionar lenguas, y de esta estancia en Argovia no guardó otra cosa que la sensación de vivir en el oasis de Suiza, además de su preparación que esta vez sí le permitió entrar en la Escuela Politécnica helvética.

Los primeros tiempos después de doctorarse en la Escuela Politécnica fueron realmente penosos. Debido a que no era suizo se le negó un lugar de asistente y, por primera vez, Einstein conoció el hambre.

Uno de sus condiscípulos, Marcelo Grossmann, que más tarde sería uno de sus mejores amigos, se compadeció de su situación y logró comunicar con el padre de Einstein.

Éste, por su parte, agobiado, sólo consiguió recomendarle al doctor Haller, que en Berna dirigía un despacho de patentes de invención.

Afortunadamente, Haller era un hombre inteligente que supo comprender el carácter callado y taciturno de Einstein; vencidas las primeras dificultades, logró colocarle y Einstein aseguró su subsistencia.

albert y mileva

Terminados sus estudios, con un empleo sólido y suficiente, obtenida ya la nacionalidad helvética, Einstein se casó con una joven matemática servia, Mileva Maric, que había conocido en la Escuela Politécnica.

De este primer matrimonio nacieron dos hijos, Alberto y Eduardo, por los que se ha sabido que fue un padre cariñoso y preocupado. Pero nada más. Einstein siempre separó su vida familiar de la profesional y es debido a este recato que su existencia íntima ha quedado prácticamente oculta.

Estos años transcurridos en Berna, al lado de su esposa Mileva, son unos de los más fecundos en la vida de Einstein. Es decir, mientras estaba empleado en el despacho de patentes de invención escribió su teorías de la relatividad.

La ejecución de dicho trabajo le colocó en la cima de la ciencia. Primeramente fue invitado por la universidad de Salzburgo para que diese una conferencia.

A continuación, Lorentz, uno de los científicos más reconocidos, le rogó que hablara en la universidad de Leyden. Einstein siempre recordó con emoción y ternura esta estancia en Leyden, sentado ante Lorentz «como un alumno ante su profesor».

EXPERIMENTOS MENTALES: Einstein desarrolló  un método para pensar de manera lógica en una idea científica, que consistía en seguir paso a paso las etapas de un experimento imaginario. De aquí salieron sus famosos «experimentos mentales», que le fueron tan útiles cuando más tarde desarrolló sus teorías. Su primer experimento sembró la semilla que se convertiría en la teoría especial de la relatividad. Einstein quería saber qué ocurriría si pudiera viajar junto a un rayo de luz. ¿Podría ver el frente de la onda luminosa? El joven Einstein comprendió que en este caso la onda desaparecería; no habría oscilaciones.

LA SOCIEDAD OLIMPICA:  Einstein Para incrementar sus ingresos puso un anuncio en el diario para ofrecer sus servicios como tutor de matemáticas y física.

Dos personas respondieron: Maurice Solovine y Conrad Habicht. Solovine estudiaba filosofía y física en la Universidad de Berna. Habicht era un viejo amigo de Einstein que había estudiado física y matemáticas, y por entonces preparaba su doctorado en matemáticas en la Universidad de Berna.

SOCIEDAD olimpia

Einstein no les dictaba clases. En cambio, los tres discutían; Solovine y Habicht hacían preguntas que Einstein respondía y explicaba. Hablaban además de libros de filosofía y física.

Se volvieron muy amigos; intercambiaban opiniones mientras caminaban hasta una aldea vecina, escalaban una montaña o iban de paseo a un lago. Resolvieron bautizar su grupo con el nombre de «Academia Olímpica», en parte en broma, pero además porque se daban cuenta de que aprendían en sus discusiones más de lo que nunca habían aprendido en las clases formales.

Las discusiones con sus dos amigos ayudaron a Einstein a pensar. Solovine y Habicht (al igual que otros amigos de Einstein) eran cajas de resonancia de las ideas que estaba desarrollando.

Las reuniones de la Academia Olímpica continuaron incluso después de la boda de Einstein con Mileva Maric. Mileva participaba pero, según Solovine, no era muy activa y nunca los acompañó cuando las discusiones tenían lugar al aire libre.

eisntein amante de la musica

La Academia Olímpica sobrevivió unos cuantos años, hasta que Soloviney Habicht aceptaron ofertas detrabajo. Pero su amistad con Einstein duró toda la vida.

1905: EL MILAGRO DE EISNTEIN: En 1905, que ahora se conoce como su año milagroso, Einstein tenía 26 años y trabajaba como experto técnico en la Oficina Federal Suiza de Patentes; llevaba dos años casado con Mileva Maric y tenía un niño de un año. En sus horas libres investigaba en física.

Einstein hizo su trabajo científico en la casa o en la biblioteca de la oficina de patentes, no en una universidad o en un laboratorio de investigación. Era lo que llamaríamos hoy un científico aficionado.

Pero ese año publicó cinco artículos, tres de los cuales iniciaron las dos revoluciones más importantes en la física desde que Newton formulara su ley de la gravitación universal. Con uno de los otros dos obtuvo su doctorado. Además, recibió después el premio Nobel de física por uno de estos artículos.

1. 17 de marzo: «Sobre un punto de vista heurístico en relación con la producción y transformación de la luz». Este artículo sentó las bases de la teoría cuántica con la introducción del concepto de cuantos de energía, o fotones.

2. 30 de abril: «Nueva determinación de las dimensiones moleculares». Ésta fue la disertación de Einstein para el doctorado, que la Universidad de Zurich aceptó en julio. Aunque su contenido no era revolucionario, este artículo ayudó a establecer la existencia de las moléculas.

3. 11 de mayo: «Sobre el movimiento de pequeñas partículas suspendidas en un líquido estacionario». Este artículo no sólo explicaba el movimiento en zigzag de una mota en un líquido (llamado movimiento brownianó), que había intrigado a los científicos durante mucho tiempo; demostró también la existencia de las moléculas.

4. 30 de junio: «Sobre la electrodinámica de los cuerpos en movimiento». Éste fue el primer artículo de Einstein sobre la teoría de la relatividad.

5. 27 de septiembre: «¿Depende la inercia de un objeto de su contenido de energía?» Este segundo artículo sobre la teoría de la relatividad contenia la famosa fórmula: E=mc²

Después de estas primeras conferencias científicas, la universidad de Zurich le ofreció una cátedra, que dudó en aceptar, hasta que las necesidades económicas le decidieron.

La docencia queda muy al margen de sus intereses reales. Einstein estaba sumido en un trabajo creador.

Tras la publicación de sus Anales de física, una serie de artículos empiezan a profundizar la brecha que había abierto en la física tradicional. Su reputación mundial crece día a día.

max planck

Max Planck propone trabajo a Einstein en Berlín

Al poco tiempo de residir en Zurich, recibió la visita de Max Planck y Walter Nernst, quienes le propucieron de parte del emperador Guillermo II, una cátedra sin la obligación de enseñar en la Universidad de Berlín, propuesta que no acpetó.

Einstein partió a Alemania poco menos de un año antes del primer gran conflicto mundial, abandonando a Mileva y a sus dos hijos; había terminado una etapa.

En 1919 en Berlín se instaló en casa de un tío. Allí conoció a Elsa, una prima que había prácticamente olvidado. Ambos, en trance de divorcio, cuando obtuvieron la separación contrajeron matrimonio. Einstein había dejado a sus dos hijos y, en este nuevo compromiso, aceptó las dos hijas de Elsa.

elsa y eisntein

Elsa y Albert Einstein

1916: TEORIA GENERAL DE LA RELATIVIDAD: La teoría especial de la relatividad se aplica cuando nos movemos con velocidad constante en línea recta. Si giramos o aceleramos, la relatividad especial deja de aplicarse. Einstein quería extender su teoría a toda clase de movimientos, acelerados o no.

Esto resultó ser difícil.

Mientras que para desarrollar la teoría especial de la relatividad Einstein trabajó unas cuantas semanas, necesitó cuatro años para extender la teoría a toda clase de movimientos. Por el camino tuvo que aprender un nuevo campo de las matemáticas. Cuando terminó, había producido la que se considera la más hermosa teoría científica de todos los tiempos. Einstein la llamó teoría general de la relatividad.

La relatividad general afirma que un objeto grande, como la Tierra o el Sol, deforma el espacio a su alrededor, y que la gravedad no es más que el resultado de esa deformación. La Tierra por sí misma no nos mantiene firmemente pegados al suelo. Por el contrario, el espacio a su alrededor se deforma y es el declive de esa deformación lo que nos mantiene sobre el suelo.

Como el Sol deforma el espacio que lo rodea, un rayo de luz que pase cerca se curvará. La relatividad general afirma también que un reloj marcha más lentamente en presencia de un campo gravitacional más intenso.

Por ejemplo, un reloj es más lento en el sótano de nuestra casa que en el desván (con todo, la diferencia es tan insignificante que no podríamos medirla ni con el más preciso reloj atómico y el equipo más exacto).

Aun antes de terminarla, Einstein deseaba comprobar su teoría para estar seguro de que iba por el camino correcto. Sabía que el movimiento del planeta Mercurio no había sido explicado por completo y que los astrónomos andaban intrigados con el problema.

Einstein empleó su teoría para calcular la órbita correcta de Mercurio, y explicó que la pequeña discrepancia con las observaciones era el resultado de la deformación del espacio alrededor del Sol.

Una vez publicada la teoría el astrónomo inglés Arthur Eddington organizó una expedición a África para medir la curvatura de la luz de una estrella durante un eclipse total de Sol (única oportunidad en que las estrellas y el Sol son visibles simultáneamente).

El resultado de las medidas confirmó la predicción de Einstein. Tal comprobación estremeció al mundo, y Einstein se convirtió en una celebridad casi de inmediato.

einstein una celebridad

En noviembre de  1922 recibió el Premio Nobel de Física; ello le decidió a hacer un viaje a París con el propósito de encontrar a sus amigos, entre los que se contaban Marie Curie, Paul Painlevé y, de un modo especial, Paul Langevin.

También en 1922 Einstein termina su primer artículo sobre la Teoría del Campo Unificado.

En 1929, cuando Einstein celebraba su cincuenta aniversario, la figura de Hitler empezaba a cobrar un vigor siniestro. Ante el nazismo instaurado, Einstein reaccionó presentando la dimisión de la Academia de Ciencias de Prusia y solicitó la nacionalización belga, pero mas tarde se trasladó a Princeton (EE.UU).

En 1933 los nazis toman el poder en Alemania

Einstein no ganó el premio Nobel por su teoría de la relatividad, que completó en 1921. No obstante, el comité del Nobel pensó que la relatividad era todavía demasiado extraña y polémica. El comité temía que la relatividad pudiera considerarse más tarde incorrecta, y no deseaba equivocarse. Entonces decidieron que entre todos los trabajos realizados por Einstein hasta 1921, su primer artículo de 1905, que contenía la idea del cuanto de luz, era merecedor del premio Nobel. En vista de que este artículo condujo con el tiempo a la teoría cuántica, la decisión del comité fue correcta.

En Princeton, en una casa a cincuenta kilómetros de Nueva York, en medio de una soledad que invitaba a la reflexión, Einstein pasó los últimos veinte años de su vida. Su esposa Elsa la acondicionó con sumo cuidado, como en tantas ocasiones había hecho ya.

Pero en 1936 falleció y, desde entonces, Einstein vivió solo, es decir, acompañado de su fiel secretaria, colaboradores íntimos y a temporadas de su hija Margot. Y durante estos años puso a punto su teoría unitaria del campo.

SUS ULTIMOS AÑOS:

1939. Maja, hermana de Einstein, llega a Princeton para vivir con Einstein el resto de sus días.

1939. Einstein firma una carta dirigida al presidente Franklin Delano Roosevelt en la que menciona la posibilidad de construir una bomba atómica y da la voz de alerta sobre sus implicaciones militares.

1940, 1º de octubre. Einstein se convierte en ciudadano estadounidense.
1943, 31 de mayo. Einstein es consultor de grandes explosivos de la marina de Estados Unidos.

1944, 3 de febrero. Una copia de su artículo de 1905 sobre la relatividad especial, escrita a mano por Einstein para la ocasión, es subastada por 6 millones de dólares como contribución al esfuerzo bélico.

1948, 4 de agosto. Mileva muere en Zurich.

1951, junio. Maja, hermana de Einstein, muere en Princeton.

1952, noviembre. Le proponen a Einstein la presidencia de Israel, oferta que rechaza.

1955. En la última carta firmada de su puño y letra, dirigida a Ber-trand Russell, acepta firmar un manifiesto apremiando a todas las naciones a renunciar a las armas nucleares.

1955, 18 de abril. Einstein muere en Princeton a la 1:15 de la madrugada. Su cuerpo es cremado y sus cenizas son esparcidas en un lugar desconocido.

muerte de einstein

https://historiaybiografias.com/linea_divisoria3.jpg

albert einstein informa sobre la energia nuclear

«Cuando me preguntaron que arma podría contrarrestar la energía nuclear, respondí que la unica arma es la paz»

Los Estados Unidos comenzaron a realizar estudios para desarrollar la bomba atómica a raíz de una carta de Albert Einstein al presidente Roosevelt, en la que detallaba que a través de la fisión nuclear se podía generar una bomba de inédito poderío, y a la vez se mostraba preocupado por la posibilidad de que Alemania llegara primero a alcanzar esa tecnología.

Años más tarde, pocos meses antes de que la primera bomba fuera lanzada sobre Hiroshima, volvió a escribir a Roosevelt manifestándole su preocupación dado que tenía información de que Estados Unidos había alcanzado la tecnología nuclear, pero poseía indicios de que los militares del Pentágono pensaban lanzarla, tal como ocurrió, sobre objetivos civiles. Einstein no tuvo respuesta de Roosevelt, quien poco después murió.

Su sucesor, Harry Truman, prominente miembro de la masonería norteamericana (al igual que Roosevelt) no dudó en lanzar dos bombas atómicas sobre ciudades japonesas con el pretexto de acortar la duración de la guerra y salvar vidas.

Una reciente investigación del autor japonés Tsuyoahi Hasegawa demuestra que el real objetivo de lanzar las bombas atómicas no fue salvar vidas sino impedir que Japón se rindiera ante la Unión Soviética y lo hiciera ante los Estados Unidos.

Tras terminar su guerra con Alemania los soviéticos se aprestaban a invadir Japón, y los Estados Unidos consideraban que Japón no debía quedar —ni total ni parcialmente— bajo el área de influencia soviética.

Las bombas de Hiroshima y Nagasaki cumplieron entonces ese objetivo geopolítico que prescindís totalmente de consideraciones humanitarias.

El gobierno japonés tampoco estuvo a la altura de las circunstancias tras las bombas atómicas, dado que sólo accedió a rendirse una vez que le fue asegurado que el emperador Hirohito no sería removido de su cargo, lo que tuvo aún más efecto para terminar la guerra en el Pacifico que las propias bombas atómicas.

Fuente Consultada: Nadie Vió Matrix de Walter Graziano

https://historiaybiografias.com/linea_divisoria3.jpg

Carta De Albert Einstein al Presidente Roosevelt Carta Histórica

Albert Einstein Old Grove Rd. Nassau Point Peconic, Long Island

2 de Agosto de 1939

F. R. Roosevelt President of the United States White House Washington, D.C.

carta de albert einsteinSeñor; Algunos recientes trabajos de E. Fermi y L. Szilard, quienes me han sido comunicados mediante manuscritos, me llevan a esperar, que en el futuro inmediato, el elemento uranio puede ser convertido en una nueva e importante fuente de energía.

Algunos aspectos de la situación que se han producido parecen requerir mucha atención y, si fuera necesario, inmediata acción de parte de la Administración. Por ello creo que es mi deber llevar a su atención los siguientes hechos y recomendaciones.

En el curso de los últimos cuatro meses se ha hecho probable -a través del trabajo de Loiot en Francia así como también de Fermi y Szilard en Estados Unidos- que podría ser posible el iniciar una reacción nuclear en cadena en una

 gran masa de uranio, por medio de la cual se generarían enormes cantidades de potencia y grandes cantidades de nuevos elementos parecidos al uranio. Ahora parece casi seguro que esto podría ser logrado en el futuro inmediato.

Este nuevo fenómeno podría utilizado para la construcción de bombas, y es concebible -pienso que inevitable- que pueden ser construidas bombas de un nuevo tipo extremadamente poderosas.

Una sola bomba de ese tipo, llevada por un barco y explotada en un puerto, podría muy bien destruir el puerto por completo, conjuntamente con el territorio que lo rodea. Sin embargo, tales bombas podrían ser demasiado pesadas para ser transportadas por aire.

Los Estados Unidos tiene muy pocas minas de uranio, con vetas de poco valor y en cantidades moderadas. Hay muy buenas vetas en Canadá y en la ex-Checoslovaquia, mientras que la fuente más importante de uranio está en el Congo Belga.

En vista de esta situación usted podría considerar que es deseable tener algún tipo de contacto permanente entre la Administración y el grupo de físicos que están trabajando en reacciones en cadena en los Estados Unidos.

Una forma posible de lograrlo podría ser comprometer en esta función a una persona de su entera confianza quien podría tal vez servir de manera extra oficial. Sus funciones serían las siguientes:

a) Estar en contacto con el Departamento de Gobierno, manteniéndolos informados de los próximos desarrollos, y hacer recomendaciones para las acciones de Gobierno, poniendo particular atención en los problemas de asegurar el suministro de mineral de uranio para los Estados Unidos.

b) acelerar el trabajo experimental, que en estos momentos se efectúa con los presupuestos limitados de los laboratorios de las universidades, con el suministro de fondos. Si esos fondos fueran necesarios con contactos con personas privadas que estuvieran dispuestas a hacer contribuciones para esta causa, y tal vez obteniendo cooperación de laboratorios industriales que tuvieran el equipo necesario.

Tengo entendido que Alemania actualmente ha detenido la venta de uranio de las minas de Checoslovaquia, las cuales han sido tomadas. Puede pensarse que Alemania ha hecho tan claras acciones, porque el hijo del Sub Secretario de Estado Alemán, von Weizacker, está asignado al Instituto Kaiser Wilheln de Berlín, donde algunos de los trabajos americanos están siendo duplicados.

Su Seguro Servidor, A. Einstein

https://historiaybiografias.com/linea_divisoria3.jpg

La Carta del Padre de Albert Einstein

CARTA DESPERADA DE UN PADRE AFLIGIDO: Luego de graduado, a Einstein le costó cierto tiempo conseguir un empleo, situación que preocupaba al flamante científico. Su padre, percibiendo sin duda su estado de ánimo (Einstein se encontraba entonces con su familia en Milán), sé atrevió a escribir (el 13 de abril de 1901) una carta a Ostwald, un reconocido profesor académico. Estas fueron sus palabras….

Estimado Herr Professor:
Por favor perdone a un padre que es tan atrevido como para dirigirse a usted, estimado Herr Professor, en el interés de su hijo.

Comenzaré por decirle que mi hijo Albert tiene 22 años, que estudió en el Politécnico de Zúrich durante cuatro años, y que pasó sus exámenes para el diploma en matemáticas y física con magníficas notas el verano pasado. Desde entonces ha estado intentando, sin éxito, obtener un puesto de asistente, que le permitiera continuar su educación en física teórica y experimental. Todos aquellos en situación de dar su opinión al respecto elogian sus talentos; en cualquier caso, puedo asegurarle que es extraordinariamente estudioso y diligente y se apega con gran amor a su ciencia.

Mi hijo se halla, por consiguiente, profundamente infeliz con su actual falta de un puesto, y su idea de que ahora se encuentra fuera de órbita hace que se sienta cada día más arrinconado. Además, se siente oprimido por el pensamiento de que es una carga para nosotros, gente de medios modestos.

Como es a usted, altamente respetado Herr Professor, a quien mi hijo parece admirar y respetar más que a cualquier otro investigador de los activos actualmente en la física, es a usted a quien me tomo la libertad de recurrir con la humilde petición de que lea su artículo publicado en el Annalen Physik y que le escriba, si es posible, unas pocas palabras de ánimo, de forma que pueda recobrar su alegría de vivir y trabajar.

Si, además, pudiese procurarle un puesto de assistent para ahora o para el próximo otoño, mi gratitud no conocería límites.
Le pido una vez más que perdone mi imprudencia al escribirle, y también me tomo la libertad de mencionar que mi hijo no sabe nada acerca de este inusual paso.

Por lo que se sabe hasta hoy, la respuesta que obtuvo Hermann Einstein de Ostwald fue la misma que tuvo su hijo: ninguna.

En esta situación, algunos de sus amigos intentaron ayudarle.Michele Angelo Besso (1873-1898), un ingeniero suizo a quien Einstein había conocido en una velada musical celebrada en Zúrich en 1896, y la única persona a quien Einstein agradeció su colaboración en su artículo de la relatividad especial (que no contiene ninguna referencia a otros trabajos), buscó la ayuda de un tío suyo, profesor en Italia.

El 15 de abril de 1901. Einstein tenía buenas noticias que contar a su novia Maric. Por un lado, que el profesor Jakob Rebstein, del Politécnico de Winterthur, le había escrito preguntándole si quería sustituirlo del 15 de mayo al 15 de julio, fechas en las que tenía que cumplir con su servicio militar. «Puedes imaginarte con qué gusto hago esto! Tengo que dar unas 30 horas semanales, entre ellas incluso geometría descriptiva, pero el valiente suabo no se asusta». escribía a Mileva.

Por otra parte, acababa de recibir una carta de su amigo y compañero de estudios Marcel Grossmann (1878-1936), con quien en 1912-1913, siendo ambos profesores en la ETH, aprendió y desarrolló el aparato matemático (la geometríariemanniana) necesario para la relatividad general, en la que éste le comunicaba que probablemente recibiría pronto, con la ayuda del padre de Marcel, un puesto estable en la Oficina de Protección de la Propiedad Intelectual de Berna.

https://historiaybiografias.com/linea_divisoria3.jpg

Fuente Consultadas:
Forjadores del Mundo Tomo III Albert Einstein Editorial Planeta
Einstein y su Teoria de la relatividad Dr. Donald Goldsmith y Robert Libbon
Einstein Para Dummies Carlos I. Calle Editorial Norma
Las Grandes Ideas Que Formaron Nuestro Mundo Peter Moore
El Universo Para Curiosos Nancy Hathawy
Biografías –  Hicieron Historia

Pierre Fermat Problema mas dificil del mundo Ultimo Teorema de Fermat

Pierre Fermat Problema Mas Difícil del Mundo
Último Teorema de Fermat

Fermat Pierre

FERMAT Pierre de (1601-1665)

Matemático francés nacido el 17 de agosto de 1601 en Beaumont de Lomagne.

u padre, que era comerciante de cuero, lo envío a estudiar derecho a Toulouse , donde el 14 de mayo de 1631 se instala como abogado.

Ese mismo año se casa con Louise de Long, prima de su madre, que le dio tres hijos, uno de ellos, Clément Samuel, que llegó a ser el albacea científico de su padre, y dos hermanas que fueron monjas.

En 1632 conoce a Carcavi siendo ambos consejeros del Parlamento en Toulouse y se hicieron amigos.

Fermat envió muchos de sus trabajos a Carcavi después que éste se mudó a París como bibliotecario real en 1636.

En 1650 Fermat envió a Carcavi un tratado titulado: Novus secundarum et ulterioris radicum in analyticis usus.

Este trabajo contiene el primer método conocido de eliminación y Fermat quería publicarlo. Se les pidió a Pascal y a Carcavi que buscaran un editor para el trabajo.

Carcavi se acercó a Huygens, tratando de publicar no sólo este trabajo sino también otros trabajos que Fermat le había enviado.

Ni Carcavi ni Pascal tuvieron éxito y los trabajos de Fermat nunca se publicaron.

La amistad de Carcavi con Fermat duró por muchos años.

En 1648 asciende a la Conserjería Real en el Parlamento local de Toulouse, cargo que desempeñó con dignidad y gran talento durante 17 años; durante 34 años dedicó su vida al servicio del Estado.

Finalmente, murió en Castres, Francia, el 12 de enero de 1665, a los 65 años.

En su obra Introducción a la teoría de los lugares planos y espaciales, contemporánea a la Geometría de Descartes, Fermat abordó la tarea de reconstruir los Lugares Planos de Apolonio, describiendo alrededor de 1636, el principio fundamental de la Geometría analítica: siempre que en una ecuación final aparezcan dos incógnitas, tenemos un lugar geométrico, al describir el extremo de uno de ellos una línea, recta o curva.

Aquellos lugares geométricos representados por rectas o circunferencias se denominaban planos y los representados por cónicas, espaciales.

Utilizando la notación de Viéte, representó en primer lugar la ecuación Dx=B, esto es, una recta.

Posteriormente identificó las expresiones xy=k2 a2-s-x2=ky; x2+y2+2ax+2by=c2 a2-x2=ky2 con la hipérbola, parábola circunferencia y elipse respectivamente.

Para el caso de ecuaciones cuadráticas más generales, en las que aparecen varios términos de segundo grado, aplicó rotaciones de los ejes con objeto de reducirlas a los términos anteriores.

La extensión de la Geometría analítica al estudio de los lugares geométricos espaciales, la realizó por la vía del estudio de la intersección de las superficies espaciales por planos.

Sin embargo, las coordenadas espaciales también en él están ausentes y la Geometría analítica del espacio quedó sin culminar.

Lo que sí está totalmente demostrado, es que la introducción del método de coordenadas deba atribuirse a Fermat y no a Descartes, sin embargo su obra no ejerció tanta influencia como la Geometría de Descartes, debido a la tardanza de su edición y al engorroso lenguaje algebraico utilizado.

Sí Descartes tuvo un rival, en lo que a capacidad matemática se refiere en su época, éste fue Fermat, quien por cierto, tampoco era un matemático profesional.

Pero considerando lo que hizo por la Matemática se piensa que hubiera hecho sí se hubiera dedicado de pleno a ellas.

Fermat tuvo la costumbre de no publicar nada, sino anotar o hacer cálculos en los márgenes de los libros o escribir casualmente sus descubrimientos en cartas a amigos.

El resultado de ello fue el perderse el honor de acreditarse el descubrimiento de la Geometría Analítica, que hizo al mismo tiempo que Descartes.

Descartes sólo consideró dos dimensiones, mientras que Fermat estudió las tres dimensiones. Igualmente pudo adjudicarse el descubrimiento de algunas características que más tarde inspirarían a Newton.

Según D’Alembert, entre otros, el origen del Cálculo infinitesimal hay que remontarlo a las dos memorias, Memorias sobre (a teoría de (os Máximos y Memoria sobre las Tangentes y las Cuadraturas de Fermat. Leibniz reconoce en una carta a Wallis, cuánto le debe a Fermat.

Fermat, junto a Pascal, desarrolló el Cálculo de probabilidades.

Pero se destacó fundamentalmente en La teoría de números.

Pascal Le escribe en una carta: Buscad en otras partes quien os siga en vuestras invenciones numéricas; en cuanto a mí os confieso que estoy muy lejos de ello”.

Dejó muchas proposiciones sin demostrar, pero nunca se demostró que Fermat se equivocara.

Los matemáticos han logrado demostrar casi todas las proposiciones que dejó sin demostrar. Solo quedaba pendiente el teorema conocido como el Último teorema de Fermat, que establece que para n>2 no es posible.

La siguiente ecuación:

an + bn = cn

Ejemplos fáciles  para n=2

 6+ 82 = 102

3+ 42 = 52

Para n>2 de no hay números naturales que cumplan la propiedad anterior

El enunciado de este teorema quedó anotado en un margen de su ejemplar de la Aritmética de Diofanto de Alejandría traducida al Latín por Bachet publicado en 1621.

La nota de Fermat fue descubierta póstumamente por su hijo Clemente Samuel, quien en 1670 publica este Libro con las numerosas notas marginales de Fermat.

Concretamente Fermat escribió en el margen de la edición de La Aritmética de Bachet lo siguiente:

«Es imposible descomponer un cubo en dos cubos, un bicuadrado en dos bicuadrados, y en general, una potencia cualquiera, aparte del cuadrado, en dos potencias del mismo exponente. He encontrado una demostración realmente admirable, pero el margen del libro es muy pequeña para ponerla

Recientemente, en 1994, Andrew John Wiles demostró este teorema. Por dicha demostración se ofrecieron cifras millonarias durantes años.

Wiles nació el 11 de abril de 1953 en Cambridge182, Inglaterra. Según afirma el propio Wiles, su interés por este teorema surgió cuando era muy pequeño.

Tenía 10 años y un día encontré un libro de Matemática en la biblioteca pública que contaba la historia de un problema que yo a esa edad pude entender. Desde ese momento traté de resolverlo, era un desafío, un problema hermoso, este problema era el Último teorema de Fermat.

 Wiles En 1971 Wiles entró en el Merton College, Oxford y se graduó en 1974.

Luego ingresó al Clare College de Cambrige para hacer su doctorado.

Para explicar su demostración sobre el enunciado de Fermat, estuvo dos días dando una conferencia a los mas grande matemáticos de la época.

Era tan larga que debió partir su explicación en dos conferencia.

Para ellos recurrió a las herramientas matemáticas más modernas de la época, a la cual tuvo que incorporarle nuevos conceptos muy complejos, aun para las más grandes de esta apasionante ciencia de los números.

Fermat, tenía razón.

NUEVO LIBRO CON LA DEMOSTRACIÓN COMPLETA

DESDE AQUÍ PUEDE CONOCER UNA NUEVA SOLUCIÓNQUE ACTUALMENTE ESTA SIENDO ESTUDIADA EN FRANCIA
Enviada por su autor: Vicealmirante (r) William Porras

Descargar Libro

¿Como este matemático concibió la solución?

 

 

Antoine Becquerel Descubrio la Radioactividad del Uranio Historia

Historia de Antoine Becquerel Descubridor de la Radioactividad

ANTOINE HENRY BECQUEREL: Físico francés nacido en París en 1852 y fallecido en Le Croisic en 1908. Miembro de una familia de científicos que abarca cuatro generaciones: su abuelo, Antoine Cesar, su padre Alexander Edmond y sus hijos Jean y Paul.

Completó sus estudios de su padre analizando los efectos de la luz infrarroja sobre substancias fluorescentes, como las sales de uranio.

En 1896, y tras estudiar la producción de rayos X por parte de las citadas sales , descubrió de modo accidental que el uranio emitía radiaciones propias y espontáneas, a las cuales luego les llamó radioactividad.

En 1900 halló que la radiación Beta está integrada por electrones y en 1901 que el radio se podía utilizar para destruir tumores , origen de la radioterapia.

En 1903 por su descubrimiento de la radioactividad natural, compartió con el matrimonio Curie el premio Nobel de la Física.

becquerel fisico radioactividad

RADIACTIVIDAD

La radiactividad es una propiedad de ciertos elementos químicos cuyos núcleos atómicos son inestables: con el tiempo, para cada núcleo llega un momento en que alcanza su estabilidad al producirse un cambio interno, llamado desintegración radiactiva, que implica un desprendimiento de energía conocido de forma general como «radiación».

La energía que interviene es muy grande si se compara con la desprendida en las reacciones químicas en que pueden intervenir las mismas cantidades de materiales, y el mecanismo por el cual se libera esta energía es totalmente diferente.

La radiactividad fue descubierta en 1896 por el químico francés Becquerel durante sus estudios sobre la fluorescencia.

Observó que una placa fotográfica no expuesta a la luz y envuelta en papel negro era impresionada como por la luz visible o ultravioleta (o por los rayos X recientemente descubiertos por Röntgen), cuando el paquete se ponía en contacto con compuestos del elemento pesado uranio.

becquerelDedujo (correctamente) que este elemento debía producir algún tipo de radiación la cual atravesaba el papel hasta alcanzar y afectar a la emulsión fotográfica. Un cuidadoso estudio emprendido por Becquerel y otros científicos, entre ellos los Curie, Joliot, Soddy, Rutherford, Chadvick y Geiger, reveló que cierto número de elementos químicos pesados (muchos de ellos no descubiertos antes a causa de su rareza) parecían ser interiormente inestables y daban a origen a radiaciones penetrantes.

Con ello, esos mismos elementos se transformaban en otros diferentes, siguiendo caminos complicados, pero bien definidos, en busca de una estabilidad final. Este fenómeno totalmente distinto de cualquier otro estudiado hasta entonces, recibió el nombre de radiactividad, y el proceso de transformación fue llamado desintegración radiactiva.

EL ÁTOMO NUCLEAR

Se define el número atómico del elemento como la cantidad de protones que contiene el núcleo en uno de sus átomos.

La masa atómica es el peso comparado de un núcleo atómico. Su unidad es la u.m.a (unidad de masa atómica) que se define como la doceava parte del peso del carbono –12. Un elemento es él y no otro por su número atómico. Así, el uranio lo es porque tiene 92 protones; si no fuera así dejaría de ser uranio.

Sin embargo, un mismo elemento puede tener átomos de distinto número de neutrones. A los núcleos que tienen igual número de protones y distinto el de neutrones se les denominas isótopos. La existencia de isótopos de un mismo elemento es una razón por la que los pesos atómicos expresados en las tablas químicas no son números enteros.

Una anotación aceptada para indicar el número y la masa atómica de un núcleo es colocando la masa atómica en la parte superior izquierda del símbolo del elemento, y el número atómico en la inferior izquierda.

El número que indica la masa atómica se representa por A mayúscula y el que indica el número atómico se representa por una Z mayúscula.

Únicamente ciertas combinaciones de Z y A forman núcleos estables: si hay demasiados neutrones, o demasiados pocos, el núcleo sufrirá más pronto o más tarde un cambio, una desintegración radiactiva, que la llevará a la estabilidad en uno o varios pasos.

El grado de es inestabilidad se pone de manifiesto por la energía emitida en la desintegración, así como en la velocidad de ésta. Tal velocidad de desintegración se mide por la vida media o período de semidesintegración, que es el tiempo necesario para que el número de átomos inicialmente presente se reduzca a la mitad por desintegración. Los tiempos de semidesintegración varían desde fracciones de segundo hasta millones de años. La desintegración radiactiva puede tener lugar de varias maneras diferentes.

Desintegración Alfa

Un núcleo demasiado pesado para ser estable expulsa un grupo compacto (una partícula alfa), consistente en dos protones, y dos neutrones, que deja al núcleo con una A cuatro unidades menor y una Z dos unidades más bajas, es decir, dos pasos atrás en la tabla periódica.

Estructuralmente una partícula alfa es idéntica a un núcleo de Helio – 4. la desintegración alfa es frecuente entre los elementos naturales más pesados (uranio, polonio, y radio, por ejemplo), pero no conduce directamente a núcleos estables: antes se producen isótopos intermedios que experimentan nuevas desintegraciones.

Las partículas alfa tienen una energía de hasta 5.000.000 de electrovoltios, pero son tan voluminosas que sólo pueden atravesar unos 25 mm de aire y se ven detenidas por una simple hoja de papel o por la parte más externa de la piel humana.

Sin embargo, por esta misma razón produce serios daños en el interior del cuerpo humano cuando son emitidas por materiales alfa – activos absorbidos inadvertidamente como polvo transportado por el aire, o través de heridas contaminadas.

Los emisores naturales de partículas alfa, como el radio, son de uso práctico limitado, ahora que se dispone libremente de gran variedad de radioisótopos artificiales. No obstante, el uranio y su subproducto artificial, el plutonio (otro emisor alfa), son ambos fisibles y, por lo tanto, de importancia primordial en la producción de energía nuclear.

Desintegración Beta

Es un núcleo con demasiados neutrones, uno de estos puede transformarse en un protón más un electrón, que es expulsado en el núcleo. El electrón emitido de esta forma recibe el nombre de partícula β. El núcleo queda con una carga positiva más, con su Z en una unidad más alta y, por lo tanto, un lugar más arriba en la tabla periódica.

Las partículas β son capaces de penetrar varios metros de aire, unos cuantos centímetros de tejido corporal o varios mm de metal o de plástico (que proporcionan un apantallamiento adecuado). Puede producir serias quemaduras superficiales o importantes daños internos sobre todo si son emitidos dentro del cuerpo durante periodos de tiempo algo prolongados.

La desintegración β es el tipo mas frecuente de desintegración radiactiva tanto entre los isótopos artificiales como entre productos radiactivos procedentes de la desintegración alfa. Algunos de los radioisótopos artificiales obtenidos en aceleradores de partículas o separados en los productos de fisión formados en reactores nucleares tienen pocos neutrones, en lugar de demasiados.

Estos se desintegran emitiendo positrones (partículas como los electrones pero cargadas positivamente), que se neutralizan casi de inmediato con los electrones ordinarios para producir una «radiación de aniquilación», con las cualidades de los rayos gamma. Los isótopos que emiten positrones tienen aplicaciones en diagnosis médica.

Emisión de rayos gamma

Esta emisión tiene lugar siempre que la desintegración beta no ha disipado suficiente energía para dar completa estabilidad al núcleo. Muchos isótopos naturales y artificiales con actividad alfa y beta son también emisores de rayos gamma. Los rayos gamma son una radiación electromagnética como los rayos X.

Su intensidad se reduce al pasar a través de la materia en un grado que dependerá de su propia energía y de la densidad física del material absorbente. Los rayos gamma no son detenidos como las partículas alfa o beta, ni existen materiales opacos a ellos, como en el caso de la luz.

Pueden necesitarse entre 5 y 25 centímetros de plomo o hasta 3 m de hormigón para conseguir una protección adecuada contra los rayos gamma de alta energía. El exceso de radiación gamma externa puede causar graves daños internos al organismo humano, peor no puede inducir radioactividad en él, ni en ningún otro material.

Otras formas de desintegración radiactiva son la transformación interna, en al que una reorganización interior del núcleo da como resultado la emisión de rayos X, o la captura de electrones, en la que un núcleo con demasiados protones captura un electrón de una orbita interna del propio átomo, convirtiendo así un protón en un neutrón, con emisión de rayos X y descenso de un lugar en la tabla periódica los núcleos de uranio – 235 y del U – 238 (emisores de partículas alfa), se desintegran alguna que otra vez por fisión nuclear espontánea, produciendo cualquier par de una gama de posibles núcleos de fisión, además de neutrones libres.

El radioisótopo artificial californio – 252 se desintegra exclusivamente por fisión espontánea, proporcionando u8na fuente utilizable de neutrones. Unos pocos isótopos producto de fisión, en particular el yodo – 122, se desintegran con emisión retardada de neutrones poco después de haber sido formados y desempeñan un importante papel en el control de reactores.

La forma de desintegración, los tiempos de semidesintegración y las energías de emisión (energía máximas en el caso de partículas alfa y beta) son, en conjunto, características especificas que distinguen a un isótopo determinado y se pueden emplear para la identificación y medida de los propios emisores y, por tanto, de sus precursores, mediante la técnica de análisis por activación.

AMPLIACIÓN SOBRE BECQUEREL….

Antonio Enrique Becquerel nació en París, en 1852, y pertenecía a una familia de grandes científicos. Tanto su abuelo como su padre habían sido, sucesivamente, profesores de física en el Museo de Historia Natural de París. Cuando se decidió que Enrique debería seguir también una carrera científica, no podía suponerse que con sólo unas pocas semanas de trabajo, a principios de 1896, llegaría a descubrir la radiactividad. Este descubrimiento, junto con otros, provocó una revolución en la física, que ha tenido grandes consecuencias para el mundo moderno.

En 1878, cuando tenía 26 años, Enrique era ayudante en el Museo, donde llevó a cabo muchos experimentos, en colaboración con su padre, que por aquel tiempo había sido nombrado profesor de física. Parte de este trabajo le sirvió para conseguir 10 años después el grado de doctor.

Durante casi todo este tiempo, se dedicó a investigar la absorción de luz por cristales, los efectos del magnetismo sobre rayos luminosos y la fosforescencia de sulfuros y compuestos de uranio.

En el año 1895, Enrique Becquerel sucedió a su padre como profesor de física en el Museo: era también, al mismo tiempo, profesor de física en el Conservatorio de Artes y Oficios de París. Ya en esta fecha, se le consideraba un físico extraordinario; pero el descubrimiento que había de hacerlo famoso no se produjo hasta los meses de enero y febrero de 1896.

Hasta entonces, Becquerel había proseguido sus experimentos sobre la fosforescencia; pero, en los primeros días de 1896, recibió la noticia de que Roentgen había descubierto que los rayos X excitaban fluorescencia en algunas sustancias. Becquerel decidió inmediatamente comprobar si las sustancias fosforescentes emitían rayos semejantes a los rayos X, colocando las sustancias sobre una placa fotográfica envuelta en papel negro opaco, y exponiendo el conjunto a la luz del sol.

Solamente cuando usaba sales de uranio pudo observar un velado en la placa; esto demostraba que sólo estas sales emitían radiaciones.
Fue entonces cuando Becquerel, casi por casualidad, llegó a la conclusión de que esas radiaciones eran de origen desconocido.

Debido a que el tiempo estaba nublado, Becquerel guardó todo su material en un cajón, en espera de que se presentara un día soleado. A título de comprobación, reveló la placa fotográfica guardada, y encontró que aparecía velada, a pesar de que la sal de uranio no podía haber sido excitada, ya que había estado varios días en la oscuridad.

Para ver si el efecto dependía de que las sales de uranio hubieran estado anteriormente expuestas a la luz del sol, Becquerel preparó a continuación estas sales en la oscuridad. El resultado que consiguió fue el mismo; el velado no se debía a la fosforescencia.

En trabajo posterior, comprobó que aquellos rayos que acababa de descubrir podían atravesar placas metálicas, y que, con menor intensidad, velaban las placas fotográficas. También comprobó Becquerel que todas las sales de uranio, y el propio metal, emitían constantemente aquellos rayos invisibles. Había descubierto que el uranio es radiactivo.

Ahora se sabe que Becquerel descubrió un tipo de radiactividad —la radiación beta—, que está constituida por electrones que a gran velocidad abandonan la posición normal en su órbita alrededor del núcleo en los átomos de uranio.

En unas seis semanas, Becquerel reunió suficientes pruebas, como para poder dar cuenta de su descubrimiento, de la radiactividad espontánea (o natural) a la Academia de Ciencias de París, lo que hizo en febrero de 1896. A partir de entonces, Pedro y María Curie comenzaron sus trabajos sobre los elementos radiactivos, en estrecha colaboración con Becquerel; en 1903, éste recibió un premio Nobel y Pedro y María Curie compartieron otro.

Actualmente, se cree que Becquerel descubrió la radiactividad casualmente, pero es más exacto decir que él estaba buscando algo tan parecido a ésta que, tarde o temprano, tenía que descubrirla. Fue un científico tan grande que rápidamente se dio cuenta de la importancia de sus hallazgos. Enrique Becquerel, después de realizar nuevos trabajos importantes sobre radiactividad, murió en Croissic, en Bretaña, en 1908; y siempre será recordado, utilizando las palabras de la concesión de su premio Nobel, en 1903, «por el descubrimiento de la radiactividad espontánea».

Teoría de la Desintegración Nuclear

Resumen Teoria de la Extincion de los dinosaurios de la Tierra

Resumen Teoría de la Extinción de los Dinosaurios

El cientifico francés Georges-Léopold Cuvier, propuso que los acontecimientos geológicos y biológicos se medían en ciclos de 10.000 años y, al final de cada uno de esos ciclos, se producía una extinción masiva de tipo catastrófico. Pero, ¿qué es la extinción? Se define como extinción a la desaparición de las especies.

Esta puede ser lenta y paulatina (extinción gradual) o repentina y catastrófica (extinción masiva).

La diferencia entre ambos tipos de extinción es tanto cuantitativa como cualitativa.

Así, se sabe que hace 75 millones de años había unas 150 especies de dinosaurios, mientras que en el límite Cretácico-Terciario (hace 66 millones de años) quedaban sólo 40. Pero en el Paleoceno no quedaba ninguna.

Obviamente, algo especial debió acontecer al final del Cretácico.

A esta teoría catasfrófica se opuso otra gradualista iniciada por los cientificos Hutton y Lyell, que que contribuyó, positivamente, al desarrollo posterior de la teoría de la evolución biológica de Darwin y Wallace.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Durante ciento cincuenta millones de años las criaturas más difundidas de la Tierra fueron ciertos grandes reptiles conocidos vulgarmente por el nombre de «dinosaurios».

Los más grandes de entre los reptiles terrestres de esta especie puede que pesaran hasta 85 toneladas. Los grandes ictiosauros y plesiosauros dominaban el mar mientras que los pterosaurios surcaban los aires con gigantescas alas de hasta 20 pies de envergadura.

Más tarde, hace unos setenta millones de años, se extinguieron todas esas monstruosas criaturas.

No de la noche a la mañana, pero sí en un tiempo bastante breve: digamos que un millón de años.

Otras formas de vida animal como los peces y los mamíferos y aves primitivos salieron indemnes, igual que la vida vegetal.

Acerca de esta extinción se han hecho diversas conjeturas… pero son sólo eso, conjeturas. A ciencia cierta nadie lo sabe.

Resultado de imagen para historiaybiografias.com dinosaurios

Gran Dinosaurio de la Patagonia Argentina

Hay quien piensa que se debió a un cambio del clima. Donde antes había un mundo suave y apacible, con pantanos y mares poco profundos, surgieron ahora montañas.

El continente se secó, los mares se hicieron profundos y las estaciones adquirieron un carácter áspero y riguroso.

Pero es difícil de creer que no quedaran regiones de clima apropiado. Y, por otro lado, los mares no tenían por qué verse afectados.

Otros sugieren que quizá los mamíferos primitivos empezaron a alimentarse de los huevos de dinosaurio acabando así con ellos. (Los reptiles marinos, en cambio eran vivíparos.).

O que quizá la Tierra se cubrió de nuevas especies de hierbas que desplazaron la antigua vegetación, más blanda y jugosa.

Puede ser que los dinosaurios vegetarianos no tuvieran el tipo de dentadura necesaria para triturar esta nueva especie de hierba más dura y que, al extinguirse aquellos, los dinosaurios carnívoros, al no encontrar alimento, se extinguieran también.

Otra posibilidad es que los dinosaurios a experimentar de pronto gran cantidad de mutaciones.

Como la mayoría de las mutaciones son para mal, es posible que el excesivo número de dinosaurios tarados trajese consigo la extinción de la especie.

Esta explicación ha despertado gran interés, pero ¿Por qué un aumento repentino en el número de mutaciones?

Una de las causas de las mutaciones es la radiación muy energética.

La Tierra está constantemente bombardeada por los rayos cósmicos, que podrían ser la causa de las mutaciones que constantemente aparecen en organismos hoy día.

La tasa actual de mutación no es demasiado alta, pero imaginemos los que ocurriría si, de cuando en cuando incidiese sobre la Tierra un chorro muy potente de radiación.

K. D. Terry, de la Universidad de Kansas, y W. H. Tucker, de la Universidad Rice, han señalado que si explotase una supernova más o menos cerca del sistema solar, la Tierra podría verse inundada de rayos cósmicos.

Terry y Tucker estimaron la frecuencia y distancia de estas explosiones y calcularon que cada diez millones de años (por término medio) la Tierra podría recibir una dosis de rayos cósmicos siete mil veces mayor que la actual.

Puede ser que hace setenta millones de años la Tierra sufriese una tal andanada de rayos cósmicos.

Pero en este caso ¿por qué afectó sólo a los dinosaurios y no a otras criaturas? Quizá sí que las afectó, sólo que los dinosaurios estaban tan especializados que eran mucho más vulnerables a las mutaciones que las demás criaturas.

¿Y qué tipo de mutación pudo ser la decisiva? H. K. Erben, de la Universidad de Bonn, ha señalado recientemente que en los últimos períodos de existencia de los dinosaurios, los huevos que ponían eran de cáscara muy gruesa.

Puede que esta anomalía fuese consecuencia de una mutación. Al ser cada vez más difícil romper el cascarón, fue reduciéndose cada vez más la tasa de natalidad.

Entre esta mutación y otras similares se extinguió toda esta especie de magníficas criaturas.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Siguiendo con el tema inicial de la guerra entre las dos teorías de la extinción, (la catastrófica y la gradualista) la batalla fue ganada por los gradualistas, y Cuvier fue el hazmerreír de las aulas de Geología durante ciento cincuenta años.

Pero en 1960, los estudios de varios investigadores pusieron de manifiesto que, realmente, en la historia de la Tierra se produjeron también grandes catástrofes, como la caída cíclica de meteoritos y cometas.

Según John Sepkoski (Jr.), de la Universidad de Chicago, hace 66 millones de años, en el Umite Cretácico-Terciario, un gran cataclismo tuvo iguales características que otro de aun mayor magnitud que había acontecido hace 245 millones de años, en el límite Pérmico-Triásico.

Y, según este investigador, en ambos casos se dio una conjunción única e inesperada de acontecimientos: grandes erupciones volcánicas en distintos puntos del planeta, producidas por la tectónica de placas, y, problamente como causa de las anteriores, el impacto de un gran volumen -asteroide o cometa- sobre la superficie terrestre.

En ambos casos, las extinciones no sólo afectaron las áreas continentales sino también, y en gran medida, los océanos mundiales.

En 1980, Luis Álvarez y colaboradores iniciaron una serie de investigaciones que presentó pruebas convincentes de la presencia de iridio, en grandes concentraciones, en el  límite Cretácico-Terciario, aunque también hay otros indicios de su presencia en límites anteriores entre eras y períodos.

Actualmente se ha confirmado la presencia de iridio, por ejemplo, en ciento cincuenta localidades continentales y marinas del límite Cretácico-Terciario.

¿Corresponderán estos hallazgos a grandes erupciones volcánicas o a colisiones con asteroides?

Hoy en día existen evidencias de ambos fenómenos en la misma época. La caída de un gran volumen quedó comprobada en el cráter submarino Chixu-lub, en el golfo de México, mientras que grandes erupciones volcánicas masivas quedaron evidenciadas en los traps de la meseta de Deccan, en la India.

¿Estarán ambos hechos conectados entre sí? Todavía persiste la duda entre los científicos.

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Por qué se extinguieron los dinosaurios?

preguntas curiosas - ciencia

Porque se Dilata el Agua al Congelarse? Resumen Explicacion Facil

Porque se Dilata el Agua al Congelarse?

Primero cabria preguntar: ¿por qué son sólidos los sólidos? ¿Y por qué son líquidos los líquidos? Entre las moléculas de una sustancia sólida hay una cierta atracción que las mantiene firmemente unidas en una posición fija.

Es difícil separarlas y, por consiguiente la sustancia es sólida.

Sin embargo, las moléculas contienen energía de movimiento y vibran alrededor de esas posiciones fijas.

Al subir la temperatura, van ganando cada vez más energía y vibrando con mayor violencia.

En último término adquieren tanta energía que la atracción de las demás moléculas no basta ya para retenerlas.

Rompen entonces las ligaduras y empiezan a moverse por su cuenta, resbalando y deslizándose sobre sus compañeras. El sólido se ha licuado: se ha convertido en un líquido.

Cristal de Agua Congelada

La mayoría de los sólidos son cristalinos. Es decir, las moléculas no sólo permanecen fijas en su sitio, sino que están ordenadas en formaciones regulares, en filas y columnas.

Esta regularidad se rompe, cuando las moléculas adquieren suficiente energía para salirse de la formación, y entonces el sólido se funde.

La disposición regular de las moléculas en un sólido cristalino suele darse en una especie de orden compacto. Las moléculas se apiñan unas contra otras, con muy poco espacio entre medías.

Pero al fundirse la sustancia, las moléculas, al deslizarse unas sobre otras, se empujan y desplazan.

El efecto general de estos empujones es que las moléculas se separan un poco más. La sustancia se expande y su densidad aumenta. Así pues, en general los líquidos son menos densos que los sólidos.

O digámoslo así: los sólidos se expanden al fundirse y los líquidos se contraen al congelarse.

Sin embargo, mucho depende de cómo estén situadas las moléculas en la forma sólida. En el hielo, por ejemplo, las moléculas de agua están dispuestas en una formación especialmente laxa, en una formación tridimensional que en realidad deja muchos «huecos».

Al aumentar la temperatura, las moléculas quedan sueltas y empiezan a moverse cada una por su lado, con los empujones y empellones de rigor.

Lo cual las separaría, si no fuese porque de esta manera muchas de ellas pasan a rellenar esos huecos. Y al rellenarlos, el agua líquida ocupa menos espacio que el hielo sólido, a pesar de los empujones moleculares.

Al fundirse 1,0 centímetro cúbico de hielo sólo se forman 0,9 centímetros cúbicos de agua.

Como el hielo es menos denso que el agua, flota sobre ella.

Un centímetro cúbico de hielo se hunde en el agua hasta que quedan 0,9 centímetros cúbicos por debajo de la superficie. Estos 0,9 cm3 desplazan 0,9 cm3 de agua líquida, que pesan tanto como el centímetro cúbico entero de hielo.

El hielo es sostenido entonces por el empuje del agua, quedando 0,1 centímetros cúbicos por encima de la superficie.

Todo esto es válido para el hielo en general. Cualquier trozo de hielo flota en el agua, con una décima parte por encima de la superficie y nueve décimas por debajo.

Esta circunstancia resulta muy afortunada para la vida en general, pues tal como son las cosas, cualquier hielo que se forme en una masa de agua, flota en la superficie.

Aísla las capas más profundas y reduce la cantidad de calor que escapa de abajo. Gracias a ello las aguas profundas no suelen congelarse, ni siquiera en los climas más gélidos. En cambio, en épocas más calurosas el hielo flotante recibe el pleno efecto del Sol y se funde rápidamente.

Si el hielo fuese más denso que el agua, se hundiría al fondo a medida que fuese formándose, dejando al aire libre otra capa de agua, que a su vez se congelaría también. Además el hielo del fondo, no tendría posibilidad ninguna de recoger el calor del Sol y fundirse.

Si el hielo fuese más denso que el agua, las reservas acuáticas del planeta estarían casi todas ellas congeladas, aunque la Tierra no estuviese más lejos del Sol que ahora.

Ver Propiedades y Características Generales del Agua

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

curiosidades sobre la ciencia

Que es la poliagua? Molecula de Agua

¿Qué es la poliagua? Molécula de Agua

Al describir la molécula de agua suele decirse que está compuesta por dos átomos de hidrógeno y uno de oxígeno: H2O.

Sí la cosa acabara ahí, sería una molécula pequeña con bajo punto de ebullición.

El sulfuro de hidrógeno (H2S), que tiene una molécula parecida, pero más pesada (porque el S es más pesado que el O), es un gas que no se lícúa hasta los -61,8º C. Si el agua no, fuese más que H2O, se licuaría a una temperatura todavía más baja, quizá alrededor de los –80º C.

Pero consideremos la forma de las moléculas de agua Los tres átomos forman un ángulo casi recto, con el de oxígeno en el vértice.

El oxígeno comparte dos electrones con cada uno de los átomos de hidrógeno, pero el reparto no es equitativo. El oxígeno ejerce una mayor atracción sobre los electrones, de modo que éstos, con su carga eléctrica negativa, están muy del lado del oxígeno.

Por eso, aunque la molécula de agua es eléctricamente neutra en su conjunto, la parte del oxígeno tiene una pequeña carga negativa, mientras que los dos átomos de hidrógeno tienen pequeñas cargas positivas que contrarrestan a aquélla.

Las cargas de signo opuesto se atraen.

Hay, pues, una tendencia a que dos moléculas del agua se alineen de manera que el extremo negativo (el del oxígeno) de una de ellas quede adyacente al positivo (el del hidrógeno) de la siguiente.

Esto constituye un «enlace de hidrógeno» que es veinte veces más débil que los enlaces normales que unen al hidrógeno y al oxígeno dentro de la molécula. Sin embargo, basta para que las moléculas de agua sean «pegajosas».

Debido a esta pegajosidad, las molécula de agua se unen con más facilidad y se separan con más dificultad que si no fuese así.

Para superar esa fuerza pegajosa y hacer que hierva el agua, hace falta calentarla a 100º C.

Cuando la temperatura baja hasta 0ª C, la prevalencia de enlaces de hidrógeno es tal, que las moléculas de agua quedan fijas en su sitio, formándose hielo.

De no ser por los enlaces de hidrógeno la temperatura tendría que ser mucho más baja para que esto ocurriera.

En una molécula como la del H2S no sucede la mismo, porque el átomo de azufre y el de hidrógeno tienen una apetencia de electrones aproximadamente igual. No hay acumulación de cargas ni a un lado ni al otro y, por consiguiente, la molécula no es «pegajosa».

Supongamos ahora que tenemos moléculas de agua en un espacio muy limitado, un tubo de vidrio muy fino, pongamos por caso.

En estas condiciones tendrán que apelotonarse unas contra otras más de lo normal.

El átomo de oxígeno de una de las moléculas se verá empujado muy cerca del átomo de hidrógeno del vecino, tanto, que el enlace de hidrógeno se hará tan fuerte como un enlace ordinario.

Las dos moléculas se convierten en una, y a esta doble molécula se podrá enganchar otra, y luego otra, etc.

Al final habrá multitud de moléculas fuertemente, unidas entre sí, con todos los hidrógenos y oxígenos formando hexágonos regulares.

La sustancia múltiple resultante es un ejemplo de «polímero». Es «agua polimerizada», o «poliagua» en abreviatura.

Para poder romper esta sustancia (anunciada por vez primera por químicos soviéticos en 1965) en moléculas H2O de vapor de agua, hay que calentarla hasta 500º C. Y debido también a que las moléculas están aquí mucho más apelotonadas que en el agua ordinaria, la poliagua tiene una densidad 1,5 veces superior a la del agua normal.

Sin embargo, la noción de poliagua no ha sido aceptada universalmente. Muchos químicos. piensan que lo que se ha llamado poliagua es en realidad agua que ha cogido impurezas o que ha disuelto un poco de vidrio.

En este caso puede ser que la poliagua ni siquiera exista.

Mas sobre las Propiedades del Agua

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Qué es la «poliagua»? Si sigue siendo H2O, ¿cuál es la diferencia?

preguntas curiosas sobre la ciencia

Los gases nobles Gases Inertes Argon Neon Helio

Los Gases Nobles – Gases Inertes

¿Qué tienen de noble los gases nobles?

Los elementos que reaccionan difícilmente o que no reaccionan en absoluto con otros elementos se denominan «inertes». El nitrógeno y el platino son ejemplos de elementos inertes.

En la última década del siglo pasado se descubrieron en la atmósfera una serie de gases que no parecían intervenir en ninguna reacción química.

Estos nuevos gases —helio, neón, argón, criptón, xenón y radón— son más inertes que cualquier otro elemento y se agrupan bajo el nombre de «gases inertes».

Los elementos inertes reciben a veces el calificativo de «nobles» porque esa resistencia a reaccionar con otros elementos recordaba un poco a la altanería de la aristocracia. El oro y el platino son ejemplo de «metales nobles», y por la misma razón se llamaba a veces «gases nobles» a los gases inertes.

Hasta 1962 el nombre más común era el de «gases inertes», quizá porque lo de nobles parecía poco apropiado en sociedades democráticas.

https://historiaybiografias.com/archivos_varios5/gases-nobles.jpg

La razón de que los gases inertes sean inertes es que el conjunto de electrones de cada uno de sus átomos está distribuido en capas especialmente estables. La más exterior, en concreto, tiene ocho electrones.

Así la distribución electrónica del neón es (2, 8) y la del argón (2, 8, 8). Como la adición o sustracción de electrones rompe esta distribución estable, no pueden producirse cambios electrónicos.

Lo cual significa que no se pueden producir reacciones químicas y que esos elementos son inertes.

Ahora bien, el grado de inercia depende de la fuerza con que el núcleo, cargado positivamente y situado en el centro del átomo, sujeta a los ocho electrones de la capa exterior.

Cuantas más capas electrónicas haya entre la exterior y el centro, más débil será la atracción del núcleo central.

Quiere esto decir que el gas inerte más complejo es también el menos inerte. El gas inerte de estructura atómica más complicada es el radón.

Sus átomos tienen una distribución electrónica de (2, 8, 18, 32, 18, 8).

El radón, sin embargo, está sólo constituido por, isótopos radiactivos y es un elemento con el que difícilmente se pueden hacer experimentos químicos.

El siguiente en orden de complejidad es el xenón, que es estable. Sus átomos tienen una distribución electrónica de (2, 8, 18, 18, 8).

Los electrones más exteriores de los átomos de xenón y radón están bastante alejados del núcleo y, por consiguiente, muy sueltos.

En presencia de átomos que tienen una gran apetencia de electrones, son cedidos rápidamente.

El átomo con mayor apetencia de electrones es el flúor, y así fue como en 1962 el químico canadiense Neil Bartlett consiguió formar compuestos de xenón y flúor.

Desde entonces se ha conseguido formar también compuestos de radón y criptón. Por eso los químicos rehuyen el nombre de «gases inertes», porque, a fin de cuentas, esos átomos no son completamente inertes.

Hoy día se ha impuesto la denominación de «gases nobles» y existe toda una rama de la química que se ocupa de los «compuestos de gases nobles».

Naturalmente, cuanto más pequeño es el átomo de un gas noble, más inerte es, y. no se ha encontrado nada que sea capaz de arrancarles algún electrón.

El argón, cuya distribución electrónica es (2, 8, 8), y el neón, con (2, 8), siguen siendo completamente inertes.

Y el más inerte de todos es el helio, cuyos átomos contienen una sola capa electrónica con dos electrones (que es lo máximo que puede alojar esa primera capa).

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

preguntas curiosas gases

El Efecto Coriolis en el Planeta Tierra Fuerza Coriolis

El Efecto Coriolis en el Planeta Tierra

Moverse por un objeto que sea estacionario o que se desplace a velocidad constante con respecto a un punto fijo no representa ningún problema.

Si queremos desplazarnos desde el punto A en uno de los extremos hasta el punto B en el extremo contrario, lo podremos hacer sin experimentar ninguna dificultad.

Pero la situación cambia cuando, las distintas partes del objeto llevan una velocidad diferente.

Pensemos en un tiovivo o cualquier otro objeto plano y grande que gire alrededor de su centro.

El objeto entero gira de una pieza, pero lo cierto es que cualquier punto cercano al centro describe un círculo pequeño y se mueve despacio mientras que los puntos próximos al borde exterior describen círculos grandes y se mueven, por tanto, muy deprisa.

efecto coriolisImagina que estás en un punto próximo al centro y que quieres dirigirte a otro cerca del borde exterior, siguiendo una línea recta que arranque del centro.

En el punto de salida, cerca del centro, participas de la velocidad de dicho punto y, por tanto, te mueves despacio.

Sin embargo, a medida que avanzas hacia afuera el efecto de la inercia tiende a que sigas moviéndote despacio mientras que el suelo que pisas va cada vez más rápido.

La combinación de tu lentitud y la rapidez del suelo hacen que te sientas empujado en la dirección opuesta a la del movimiento de giro.

Si el tiovivo gira en dirección contraria a la de las manillas del reloj, comprobarás que tu trayectoria se curva cada vez, más en el sentido de las manillas del reloj a medida que avanzas.

Si empiezas en un punto próximo al borde exterior y avanzas hacia el centro, retendrás la rapidez de dicho punto al tiempo que el suelo irá moviéndose cada vez más despacio debajo de tus pies.

Por consiguiente, te sentirás empujado cada vez más en la dirección de giro. Sí el tiovivo se mueve en dirección contraria a la de las manillas del reloj, tu trayectoria se curvará cada vez más en el sentido de las agujas del reloj.

Saliendo de un punto próximo al centro, desplazándote hasta un punto cercano al borde exterior y volviendo luego al centro, comprobarás —si sigues siempre el camino de menor resistencia— que has descrito una trayectoria más o menos circular.

Este fenómeno fue estudiado por primera vez con detalle en 1835 por el físico francés Gaspard de Coriolis, y en honor suyo se llama «efecto Coriolis».

A veces se denomina «fuerza de Coriolis», pero en realidad no es una fuerza, sino simplemente el resultado de la inercia.

La consecuencia más importante del efecto Coriolis para los asuntos cotidianos tiene que ver con la rotación de la Tierra.

Los puntos de la superficie terrestre cercanos al ecuador describen en el lapso de veinticuatro horas un gran círculo y, por tanto, se mueven muy deprisa.

Cuanto más al norte (o al sur) nos movamos, menor es el círculo descrito por un punto de la superficie y más despacio se mueve.

Los vientos y corrientes oceánicas que corren hacía el norte desde los trópicos llevan desde el principio, por la misma rotación terrestre, un rápido movimiento de oeste a este.

Al desplazarse hacia el norte conservan su velocidad, pero como resulta que la superficie de la Tierra se mueve cada vez más despacio, el viento o la corriente se adelanta y empieza a curvarse hacia el este.

Al final acaban por moverse en grandes círculos: a derechas en el hemisferio norte y a izquierdas en el hemisferio sur.

Es, precisamente el efecto Coriolis el que inicia ese movimiento circular que, concentrado en mayor grado (y, por tanto, más energéticamente) da origen a los huracanes, y en grado aún mayor, a los tornados.

Fuente Consultada: Cien Preguntas Sobre La Ciencia de Isaac Asimov

¿Qué es el efecto Coriolis?

preguntas curiosas ciencia