Central Nuclear Atucha

Usos de los Recursos Naturales y el Cuidado del Ambiente Historia

 Historia del Usos de los Recursos Naturales y el Cuidado del Ambiente

Las sociedades aprovechan los elementos naturales, como agua, minerales, animales y plantas, para satisfacer sus necesidades, por ejemplo para producir bienes de uso personal como calzados, muebles, automóviles, cerámicos, utensillos, etc. Así, los seres humanos van modificando y transformando la naturaleza para obtener alimentos, vivienda, vestimenta, etc.

En el campo, con la cría de ganado y el cultivo de plantas, y en las ciudades, con la construcción de edificios, caminos, etc. El ambiente es el resultado de la relación entre los elementos de la naturaleza y las transformaciones realizadas por las personas. Por ejemplo, una montaña es un elemento natural, pero si las sociedades construyen allí casas, caminos y puentes, se la considera un ambiente de montaña.

USO Y CONSERVACIÓN DE LOS RECURSOS NATURALES: La especie humana, aparecida hace aproximadamente 40.000 años atrás, ha sobrevivido principalmente como cazadora-recolectora nómada durante la mayor parte de ese tiempo.

Dos cambios culturales de gran importancia, la Revolución Agrícola (10.000 a 12.000 años atrás) y la Revolución Industrial (a fines del siglo XVIII) trajeron beneficios como el aumento de la tecnología, el suministro de alimentos, la obtención de mucha mayor energía, el aumento de la esperanza de vida, etc. Pero también tuvieron consecuencias negativas: se produjo un brusco aumento de la población y un crecimiento exponencial del uso de los recursos, de la contaminación y de la degradación del ambiente.

Nuestros primeros antecesores cazadores-recolectores (sociedades paleolíticas) lograron sobrevivir porque tenían un adecuado conocimiento del ambiente donde vivían, y entendían su íntima dependencia respecto ele la naturaleza.

Ellos aprendieron eficazmente a encontrar agua, a saber cuándo maduran los frutos y a conocer los movimientos de sus presas. Al mismo tiempo descubrieron una gran variedad de animales y plantas que les proveían alimento y a las que usaban como medicamentos. Estos hombres sólo empleaban, por un lado, la energía solar, y por el otro, su propia fuerza muscular.

En consecuencia, era escaso el impacto que causaban en el medio natural. Eran grupos humanos pequeños que poseían un comportamiento nómada y dependían de su propia fuerza física.

La Revolución Agrícola se produjo por un cambio gradual de los pequeños grupos nómadas cuando se establecieron en comunidades agrícolas, donde aprendieron a criar animales salvajes y a cultivar plantas silvestres para sobrevivir. Para preparar esos cultivos desmontaban pequeños sectores de bosque, derribando árboles y malezas, para luego quemar esa vegetación talada y utilizar las cenizas como abono.

Dichos cultivos eran de subsistencia, esto es, producían sólo lo necesario para comer ellos y sus familias. El trabajo era manual y usaban precarias herramientas de labranza, por lo cual hubo escaso impacto sobre el medio natural.

Más adelante, con la aparición del arado de metal tirado por animales domesticados, junto con el aumento de las parcelas cultivadas donde se abrían los suelos fértiles, la degradación se incrementó.

urbanizacion primitiva

La Revolución Urbana introdujo fuertes cambios culturales que aparejaron problemas ambientales, cuyas consecuencias se mantienen vigentes en la actualidad. La urbanización se originó en un grupo de agricultores con capacidad de producir alimento suficiente para mantener a sus familias, más un excedente que podía comercializar con otras personas. Estos grupos crecieron hasta convertirse en pueblos y ciudades, donde se centralizaron el comercio, los gobiernos y la religión, y el agua se transformó en un recurso económicamente valioso.

primeros asentamiento humanos

Empezó en esta etapa una verdadera contienda contra la naturaleza, donde la supervivencia de animales y plantas silvestres dejó de ser importante pues competían con el ganado y los cultivos; fueron eliminados o desalojados, ya no eran considerados recursos vitales para el hombre. Como consecuencia sobrevinieron guerras, sobrepoblación, contaminación y degradación ambiental.

La Revolución Industrial comenzó en Inglaterra a mediados del siglo XVIII y se extendió a los Estados Unidos en el siglo siguiente; la leña fue reemplazada por el carbón como combustible sustituto. El consumo promedio de energía por persona aumentó considerablemente y, por lo tanto, el poder de alterar y utilizar la Tierra para satisfacer las necesidades del crecimiento económico. El uso del carbón llevó a la invención de la máquina de vapor.

carbon y la maquina a vapor

Más adelante, el carbón fue reemplazado por el petróleo y el gas. Con el avance de la Revolución Industrial surgió la sociedad industrial avanzada, que se caracterizó por la intensa producción y el gran consumo de bienes motivados por la publicidad masiva para crear falsas necesidades o necesidades artificiales, alentando de esta manera lo que llamamos la «sociedad de consumo».

maquina a vapor

Se produjo también un cambio en la utilización de materiales sintéticos en lugar de los naturales, con el correspondiente perjuicio al ambiente ya que los primeros se degradan muy lentamente y muchos son tóxicos para el hombre, los animales y las plantas. Conjuntamente con los beneficios que acompañaron a estas sociedades se intensificaron muchos problemas ambientales y aparecieron otros nuevos.

torre de petroleo

El uso desmesurado de combustibles fósiles fue el que generó un crecimiento económico vertiginoso, con la consecuente aparición de problemas ambientales graves. La industria de exploración y explotación de la «energía fósil» es la responsable de gran parte de la contaminación del aire y el agua del mundo.

Conquistar la naturaleza puede aparecer como una idea asociada al progreso, pero exacerbada por el proceso de industrialización. Es imprescindible revertir el uso irracional y abusivo de los recursos.

SINTESIS: Volviendo al inicio, decíamos que  las sociedades utilizan los recursos naturales para producir alimentos, ropa, calzados muebles, etc. La mayoría de las veces, las industrias no tienen: en cuenta los daños que generan en los ambientes al obtener los recursos naturales para fabricar sus productos.

El desarrollo sustentable consiste en una serie de acciones que tienen como objetivo lograr un equilibrio entre el desarro llo económico y el cuidado del ambiente. La idea principal en satisfacer las necesidades de las sociedades sin afectar los re cursos naturales y preservarlos para las generaciones futuras Para ello, es necesario que la sociedad y las industrias respeten los tiempos de la naturaleza.

Esto significa que al utilizar los recursos naturales se les debe conceder el tiempo necesario que se reproduzcan y se formen nuevamente. Si ese tiempo no se respeta, es posible que se agoten. Por ejemplo, realizar acti vidades de pesca solo en los períodos determinados para que los peces puedan reproducirse y no estén en peligro de extición. Lo mismo sucede con las plantas y otros animales.

Al mismo tiempo, las sociedades deben prac ticar un consumo responsable, que significa elegir productos teniendo en cuenta como has sido elaborados y cómo afectan al ambiente. Consiste en consumir y elegir lo indispensable y no comprar productos innecesarios, que tengan componentes contaminantes.

Realizar un consumo responsable requiere de un cambio en los hábitos, no muy diferente de los que ya se tienen. Por ejemplo, las bolsas de plástico se pueden reemplazar por una úni ca bolsa de tela y siempre llevar la misma para hacer las compras. De esta manera, se disminuye no solo la producción de plásticos, también los residuos de este material.

Ver: Basura Electrónica

Fuente Consultada: Espacio y Sociedades del Mundo Política, Economía, y Ambiente – Daguerre y Sassone – Edit. Kapeluz Biblioteca Polimodal

Subproductos Derivados del Petroleo Etileno Destilación y Refinación

Subproductos Derivados del Petróleo
Etileno Destilación y Refinación

Aunque el petróleo es importante como fuente de lubricantes y carburantes para los motores de combustión interna, los subproductos de las refinerías se utilizan como el punto de partida para la obtención de nuevas sustancias. Rápidamente, estos subproductos se han convertido en las principales materias primas para la obtención de una amplia gama de compuestos orgánicos complejos y, en particular, de los polímeros.

Hasta hace quince años, las principales fuentes de compuestos orgánicos eran el alquitrán de hulla y el alcohol etílico, obtenido por la fermentación de melazas. Cuando las compañías de petróleo más importantes comenzaron a trasportarlo crudo para su refinación posterior cerca de los centros, consumidores, en vez de refinarlo en los campos petrolíferos, se pudo disponer de los subproductos del petróleo en gran cantidad.

Desde un punto de vista económico, esta fue una situación ideal. Por un lado, las refinerías producían hidrocarburos gaseosos (con moléculas que contienen uno, dos, tres o cuatro átomos de carbono), de los cuales había una demanda limitada en aquella época.

Por otra parte, varios productos nuevos estaban en etapa de desarrollo y necesitaban materias primas económicas. Así, pues, los subproductos del petróleo se convirtieron en materiales de partida para muchos otros procesos.

Debido a la interdependencia entre las refinerías y las plantas químicas que utilizan sus productos, gran parte de los procesos iniciales se realiza en fábricas que dependen de las compañías de petróleos y de las empresas de productos químicos.

MATERIAS PRIMAS
Los elementos básicos con los que se obtiene gran número de compuestos son los hidrocarburos gaseosos, que son separados de los componentes sólidos y líquidos del petróleo crudo cuando éste se destila.

También se producen en gran cantidad durante la operación del craqueo catalítico. En este proceso, el gasóleo (fracción de petróleo con un punto de ebullición más alto que la gasolina) se vaporiza, se mezcla con vapor de agua y se hace circular por un catalizador caliente.

Las moléculas más grandes del gasóleo se rompen, para formar moléculas más pequeñas. Entre los compuestos más importantes que se obtienen por este procedimiento figuran el etileno, el propileno, el butileno y el butadieno. Sus moléculas no están saturadas (es decir, tienen dobles enlaces débiles), y algunos se utilizan para obtener hidrocarburos de cadena ramificada de peso molecular mayor, que se añaden a la gasolina para mejorarla (le dan un mayor índice de octano). Como hay una superproducción de gasóleo, no es difícil producir cantidades suficientes de estos compuestos no saturados para atender cualquier demanda.

Antes de que los gases se puedan utilizar en las plantas químicas, deben separarse. Esto se hace por destilación fraccionada, que se efectúa a presiones altas y baja temperatura, con lo cual los hidrocarburos se licúan.

Casi todos los gases que provienen de la planta de destilación son hidrocarburos saturados (es decir, los átomos de la molécula están unidos por enlaces sencillos fuertes). El propano y el butano se utilizan, principalmente, como gases trasportables. Éstos se licúan fácilmente a presiones moderadas y se envasan. Las garrafas o bidones de propano y butano se utilizan mucho, sobre todo en los lugares donde no hay gas de alumbrado.

Sin embargo, el metano (gas natural) es importante como materia prima. Este hidrocarburo (CH4), en sí, es poco reactivo, pero se puede convertir en alcohol metílico (CH3-OH), que tiene muchas aplicaciones. Esta conversión tiene lugar en dos etapas. Primero, el metano, mezclado con vapor de agua y anhídrido carbónico, se pasa sobre un catalizador caliente de níquel. Se forma una mezcla de monóxido de carbono e hidrógeno en las proporciones adecuadas. Cuando se comprime la mezcla, se obtiene alcohol metílico.

El alcohol metílico es un disolvente importante como tal, pero grandes cantidades de él se convierten en formaldehído (CHaO) por una reacción de oxidación. El formaldehído se usa en la preparación de varios fármacos, pero la mayor parte del producto se utiliza en la fabricación de plásticos de fenol-formaldehído (por ejemplo, la bakelita),

REFINACIÓN  DEL PETRÓLEO: En la refinería, la primera operación a la que se somete el petróleo crudo es la «destilación». Ésta separa el petróleo en seis «fracciones», la mayoría de las cuales sufre un tratamiento posterior. La gasolina destilada contiene gran proporción de parafinas de cadena lineal, que producen el picado o detonación cuando se quema aquélla en el motor del coche.

Este efecto se puede disminuir añadiendo a la gasolina parafinas de cadena ramificada e hidrocarburos cíclicos. Para producir estos compuestos cíclicos y ramificados se realizan tres procesos, que son: el craqueo, la polimerización y el «reforming». Calentando a temperaturas elevadas los compuestos orgánicos, cuyas moléculas constan de muchos átomos, éstos se descomponen, dando compuestos de moléculas más pequeñas.

torre de destilación de petroleo

En el proceso de destilación primario se suministra petróleo crudo y se separan las distintas fracciones.

Este proceso, llamado «craqueo», tiene lugar en las refinerías de petróleo, donde se rompen los aceites de alto punto de ebullición y se obtienen compuestos más volátiles, que se pueden añadir a la gasolina. Para facilitar estos cambios químicos se utilizan catalizadores, por lo cual el proceso se llama «craqueo catalítico».

Además de dar compuestos adecuados para la destilación de gasolina, también se producen hidrocarburos gaseosos. Estos últimos (que contienen uno, dos, tres o cuatro átomos de carbono por molécula) se obtienen tanto en la etapa de destilación como en las del craqueo Catalítico.

Algunos de estos compuestos, especialmente los hidrocarburos no saturados propileno y butileno, se utilizan en reacciones de «polimerización», para obtener hidrocarburos ramificados mayores, que, cuando se añaden a la gasolina, le confieren propiedades antidetonantes y elevan su índole de octano. Estos gases son también la materia prima para la industria petroquímica.

ETILENO
El etileno y los hidrocarburos superiores no saturados (propileno, butileno y butadieno) son mucho más reactivos que los hidrocarburos saturados, y por eso tienen muchas más aplicaciones como materias primas. Se obtienen, principalmente, en la planta de craqueo catalítico, donde, controlando con cuidado las condiciones de reacción (temperatura y presión) y la proporción de vapor añadido, se puede obtener un gran rendimiento en compuestos no saturados.

Como el etileno es un compuesto no saturado, resulta bastante reactivo. Toma parte en reacciones de adición (es decir, se le pueden añadir otras moléculas), y con facilidad forma polímeros, como el polietileno.

La mayor parte del etileno se usa en la fabricación de plásticos: polietileno, poliestireno, policloruro de vinilo (P.V.C.) y acrilonitrilo. El etileno también puede convertirse en alcohol etílico, que se emplea como disolvente.

El alcohol se oxida para dar acetaldehído y ácido acético, que, a su vez, se usan como materiales de partida para la fabricación de otros productos

También se utiliza el etileno en la fabricación de óxido de etileno, del cual se puede obtener etilénglicol, que se emplea como anticongelante en los sistemas de refrigeración de los automóviles. El etilénglicol es una materia prima utilizada en la fabricación de la fibra artificial llamada terilene.

La obtención de alcohol etílico a partir de etileno y agua es también un proceso catalítico en el que se usa ácido fosfórico como catalizador. En este proceso se obtiene, al mismo tiempo, éter dietílico en pequeña cantidad. Sólo un 5% del etileno que’entra en el reactor se convierte en alcohol etílico; por eso, el etileno se separa para reciclarlo, y el alcohol y el éter se separan por destilación fraccionada. El éter que se produce se utiliza como disolvente y anestésico.

La producción de plásticos y fibras artificiales que se derivan del etileno constituyen un tema demasiado extenso para describirlo aquí.

En casi todos los casos, la polimerización se realiza abriendo los dobles enlaces y utilizando las valencias libres para unir muchas moléculas entre sí. El polietileno se obtiene directamente del etileno, mientras que el cloruro de vinilo se produce a partir de etileno y cloro, antes de polimerizarlo.

El estireno, del cual se obtiene el poliestireno, también se consigue del etileno. Cada uno de esos plásticos tiene gran variedad de aplicaciones; algunos son buenos aislantes eléctricos, otros resisten el ataque químico. Unos son trasparentes, mientras que otros resultan traslúcidos u opacos.

En la actualidad, el propileno se utiliza principalmente para la obtención de otros compuestos orgánicos intermedios, como alcohol isopropílico, acetona y fenol, entre los más importantes; pero parece probable que en el futuro se utilicen cantidades mayores en la producción de un nuevo plástico: el polipropileno. Actualmente, la acetona se fabrica del propileno por medio de dos procedimientos diferentes. El primero consiste en obtener alcohol isopropílicoy luego oxidarlo a acetona.

En el proceso más reciente, el propileno reacciona con benceno para dar eumeno, que se oxida después y se descompone en fenol y acetona. La acetona es un disolvente muy importante y se utiliza en la producción de explosivos y adhesivos. El fenol es uno de los principales materiales de partida para la fabricación de gran número de plásticos y resinas; por ejemplo, el plástico fenol-formaldehído (bakelita)  y las epoxiresinas.

Cuando se unen cuatro moléculas de propileno, se obtiene una sustancia llamada isododeceno (CH2HE,), que se utiliza en la fabricación de varios detergentes de uso doméstico e industrial. Grandes cantidades de butadieno (CH2=CH—CH=CH2) y butileno (C4H8) se utilizan actualmente en la producción de varios tipos de caucho sintético y de plásticos.

Estos cauchos sintéticos se emplean en la fabricación de suelas de calzado y de neumáticos de automóvil. Durante el proceso de refinación del petróleo, también se obtiene gran número de compuestos inorgánicos. En el petróleo hay varios compuestos de azufre que deben eliminarse y que pueden ser una fuente de azufre para la producción de ácido sulfúrico.

El exceso de gas hidrógeno procedente de las refinerías se puede utilizar en la elaboración de amoníaco, que es un material esencial en la fabricación de varios fertilizantes.

tabla uso del petroleo

ALGO MAS SOBRE LOS USOS DEL PETROLEO:

El petróleo es una sustancia que las personas conocen y usan desde hace miles de años. Con el nombre de aceite de roca se empleaba, por ejemplo, para impermeabilizar todo tipo de embarcaciones, y en el antiguo Imperio babilónico (el actual Irak) ya se asfaltaban con él las calles principales. Sin embargo, sus utilidades eran escasas.

El primer pozo petrolero se perforó a mediados del siglo XIX, obteniendo como primer subproducto el queroseno, que sustituyó al aceite de ballena como combustible. A finales de ese mismo siglo aparecieron los primeros automóviles impulsados por gasolina, y la creciente demanda de coches con motor de combustión convirtió al petróleo en la principal fuente de energía en unas pocas décadas.

La industria petroquímica comprende la elaboración de todos aquellos productos que se derivan de los hidrocarburos, tanto del petróleo como del gas natural. Produce cientos de productos diferentes, con aplicaciones en casi todos los ámbitos de nuestra actividad:

•  Las fibras textiles artificiales, como el nailon. Presentan, sobre las fibras naturales, grandes ventajas, como resistencia ante el ataque de bacterias, hongos e insectos, se arrugan menos, se secan más rápidamente, etc.
•   Fertilizantes, herbicidas e insecticidas de todo tipo para la agricultura.
•   Colorantes, conservantes, antioxidantes y otros productos aditivos para la industria alimentaria.
•   Detergentes.
•   Envases y embalajes variados.

Todos los tipos de plástico son polímeros, es decir, materiales derivados del petróleo. Sus utilidades son incontables: carcasas para aparatos electrónicos (teléfonos, computadoras, televisores, etc.); film transparente para envolver alimentos; fibra óptica para comunicaciones; encapsulados y coberturas para material eléctrico; neumáticos, etc. Las aplicaciones del petróleo y sus derivados en nuestra vida diaria son muy numerosas.

CUADRO SOBRE EL USO DEL DERIVADO ETILENO:

cuadro uso del etileno

Fuente Consultadas:
Revista TECNIRAMA N°124 El Petróleo Como Materia Prima
La Enciclopedia del Estudiante Tomo 04 Tecnología e Informática Santillana

Tunel Subfluvial Santa Fe Parana Historia de su Construcción

Historia del Túnel Subfluvial Santa Fe Paraná
Construcción y Datos Técnicos

Hasta fines de 1969 la única posibilidad de atravesar el ancho río Paraná era utilizando ferrys y lanchas , medios obviamente insuficientes y lentos para un país que crecía día a día. La realización del túnel estuvo a cargo de tres empresas: S.A.I.L.A.V. la firma argentina que concibió el proyecto; HOCHTIEF de Alemania, que se hizo cargo de su ejecución, y Vianini S.A., de Roma, que efectuó el dragado del Paraná (fue un trabajo duro) 800 hombres (que alguna vez llegaron a ser más de 1000) trabajando día y noche bajo la dirección de doce ingenieros y técnicos alemanes tuvieron en sus manos la responsabilidad de coordinar y ejecutar la obra  que alcanzó los. 21.500 millones de pesos ( dólares); el túnel propiamente.

El 13 de diciembre de 1969  la Argentina inauguró un «gran tubo subterráneo» por el cual avanzan peatones y vehículos; el túnel subfluvial que por debajo del Paraná comunica las provincias de Entre Ríos y Santa Fe. La obra demandó una década y desde luego en su realización intervino la más moderna tecnología. Tal el empleo de una isla flotante, construida especialmente, y cuyas cuatro columnas de sesenta y tres metros de altura se utilizaron para la colocación de los grandes tubos del túnel. De otra manera no se concibe la ejecución de una empresa semejante.

Amén de las rampas de doscientos setenta metros que, en cada orilla son como el inicial acceso, el túnel propiamente dicho tiene una longitud de dos mil cuatrocientos metros (2400 m.). Y esta dimensión resulta del acoplamiento de treinta y seis tubos prefabricados de hormigón armado, cada uno de los cuales mide casi diez metros de diámetro interno, medio metro de espesor, sesenta y cinco metros de longitud y pesa más de cuatro mil toneladas…  Y toda esta tremenda armazón está a una profundidad de treinta y dos metros respecto del nivel medio del Paraná.

Funcionalmente considerado, puede ser transitado en ambos sentidos: se ha previsto una trocha para cada dirección; de ahí que la calzada mida siete metros y medio de ancho, y un metro y veinte centímetros sobreelevada respecto de la calzada; se ha construido una pasarela o vereda lateral de noventa y cinco centímetros de ancho, provista de baranda metálica.

Aunque concebido originariamente para el exclusivo tránsito carretero, ha sido en definitiva estructurado para que también pueda soportar el tránsito ferroviario; eso explica se hayan dejado en el pavimento anclajes que permitirían la ulterior fijación de las vías.

corte del tunel subfluvial parana santa fe

La idea de conectar ambas provincias nació por allá en 1911 cuando las exigencias del propio crecimiento del país hacia necesario mejorar y agilizar las comunicaciones provinciales e internacionales. Llevó varias décadas de esfuerzos y presentación de proyectos hasta que Poder Ejecutivo Nacional creó una comisión encargada de proyectar un túnel.

Los técnicos encargados para hacer un primer análisis de factibilidad fueron  Ernesto Algelt y Carlos Laucher; quienes entonces se instalaron en Paraná por el período de diez días para elaborar un croquis preliminar del túnel. Mas tarde se haría un anteproyecto.

Raúl UrangaGobernador Silvestre Begnis Tunel Subfluvial Santa Fe Parana Historia de su Construcción Datos TecnicosCarlos Sylvestre Begnis (izq.) y Raúl Lucio Uranga (der.) eran los gobernadores de Santa fe y Entre Ríos respectivamente y firmaron entonces el 15 de Junio de 1960 un Tratado Interprovincial que finalmente dispuso la construcción de un túnel subfluvial, que se llamaría Hernandarias en honorHernando Arias de Saavedra  el primer gobernador criollo de Santa Fe.

El 13 de diciembre de 1969 la Argentina inauguró un «tubo» por el cual avanzan peatones y vehículos: el túnel subfluvial que por debajo del Paraná comunica las provincias de Entre Ríos y Santa Fe.

La obra demandó una década y desde luego en su realización intervino la más moderna tecnología.

Tal el empleo de una isla flotante, construida especialmente, y cuyas cuatro columnas de sesenta y tres metros de altura se utilizaron para la colocación de los grandes tubos del túnel. De otra manera no se concibe la ejecución de una empresa semejante.

Las rampas de doscientos setenta metros que en cada orilla son como el inicial acceso, el túnel propiamente dicho tiene una longitud de dos mil cuatrocientos metros. Y esta dimensión resulta del acoplamiento de treinta y seis tubos prefabricados de hormigón armado, cada uno de los cuales mide casi diez metros de diámetro interno, medio metro de espesor, sesenta y cinco metros de longitud y pesa más de cuatro mil toneladas y toda esta tremenda armazón está a una profundidad de treinta y dos metros respecto del nivel medio del Paraná.

Funcionalmente considerado, puede ser transitado en ambos sentidos: se ha previsto una trocha para cada dirección; de ahí que la calzada mida siete metros y medio de ancho, y un metro y veinte centímetros sobre elevada respecto de la calzada; se ha construido una pasarela o vereda lateral de noventa y cinco centímetros de ancho, provista de baranda metálica.

Se eligió un túnel porque tiene una vida casi ilimitada, frente a un puente en donde la fatiga del materia hace que los costos de mantenimientos sean grandes y a la vez la vida útil es mas reducida. Además el puente lleva pilares o columnas que obstaculizan la navegación, frente al túnel que no molesta para nada, (recordemos que el túnel se construye debajo del lecho del río). Finalmente los impuestos al gobierno nacional son menores que los estipulados para las obras sobre la superficie terrestre, pues  pertenece a Jurisdicción Nacional.

Tunel Subfluvial Santa Fe Parana

El túnel que por debajo del río Paraná une las capitales de las provincias argentinas de Santa Fe y Entre Ríos tiene la finalidad esencial de contribuir a la integración de la zona mesopotámica del país con el resto del territorio nacional, a través de una obra vial que asegura las comunicaciones, las independiza de las condiciones climáticas y las hace más rápidas.

La obra tiene una longitud de 2.397 metros a los que a hay que agregar dos rampas de 271 metros cada una y dos caminos de acceso de aproximadamente 1.500 metros. Se utilizaron 36 tubos acoplados, cada uno de los cuales tiene 64 metros de largo, 10.50 m de diámetro, y un peso de 4.200 toneladas.

El diámetro interno es de 9,80 metros, lo que  permite alojar una calzada de concreto asfáltico de 7,50, metros de ancho por 4,40 de altura libre.’Una sala de ventilación con registradores especiales ,resuelve el problema de la renovación del aire viciado; en este sentido se tomó como base a una circulación horaria de 1.250 vehículos en una dirección. La renovación total del aire sólo lleva de 3 a 4 minutos.

Células fotoeléctricas regulan el sistema de iluminación: a cielo abierto, en la zona de acostumbramiento y en el interior. Un circuito cerrado de televisión y señalamiento permite observar y regular la circulación o prevenir sobre obstáculos imprevistos. Una red de altoparlantes completa el sistema junto con teléfonos cada 100 metros.

Es de destacar que la máxima pendiente en la entrada del túnel es del 3,5 %. Su profundidad está determinada por la exigencia de evitar que bajo cualquier circunstancia pueda producirse la socavación de los tubos por efecto de la enorme fuerza de arrastre del río. La cota más profunda es de 29,51 metros, lo que equivale a una profundidad de 32 metros referida al nivel medio del Paraná.

En la construcción se usó material de la zona como cemento, canto rodado, hierro de alta resistencia, hierro común y arena. Fueron impermeabilizados en el lado exterior con 3 manos de resina poliester reforzadas con lana de vidrio. Cada tubo tiene una longitud de 65,45 metros, un peso de 4500 toneladas, el diámetro exterior es de 10,80 metros y el interior de 9,80 metros. La pared tiene un espesor de 0,50 metros. La pasarela o vereda lateral un ancho de 0,95 x 1,20 metros sobreelevada respecto a la calzada. La calzada tiene un ancho de 7,50 metros. Espesor: 0,43 metros (dos manos de tránsito). La altura libre desde la calzada al cielorraso es de 4,41 metros.

Para la colocación de ios grandes tubos del túnel subfluvial, debió emplearse una «isla flotante» cuyas cuatro columnas median sesenta y tres metros de altura.

El Túnel costó 60 millones de dólares, en época pico llegó a ocupar a más de 2.000 operarios, se colocaron 498.000 azulejos y se instalaron 104 semáforos. La altura interior es de 4.10 metros de luz. Cada 100 metros se han instalado placas de seguridad dotadas de teléfono, equipos de extinción y detección de incendios; en el interior se instalaron 24 juegos y dos en cada rampa de acceso.

El túnel subfluvial Hernandarias es el primero de su tipo en América del Sur) y forma parte de un sistema vial con el puente que une a las provincias de Chaco y Corrientes, facilitando la vinculación entre dos vastas regiones del país, ha contribuido también a fomentar el turismo.

Visitar esta obra excepcional y recorrerla, constituye ya un motivo de justificada curiosidad para cientos de miles de argentinos. y también dimensiona al túnel subfluvial su contribución a la unidad de América latina. En efecto, camiones brasileños entran con cargas de esa nación y utilizan el túnel para continuar más directa y rápidamente a Chile, uniendo así en ese itinerario la vía comercial Atlántico-Pacífico.

OTROS TÚNELES SUBFLUVIALES EN EL MUNDO:
En el año 1899 se construyó en Berlín el primer túnel subfluvial, fue hecho sobre el Río Spree y tiene una longitud de 454 metros.

En 1927, en los Estados Unidos se inaugura el “Hollanad” entre Nueva York y Neva Jersey.

En 1934, Inglaterra construye un túnel de 3.180 metros, que lo lleva a ser el más extenso del mundo, y que une Liverpool con Birkenhadd bajo el Río Ramsey.

En 1937, nuevamente los Estados Unidos concreta otro túnel, esta vez para comunicar Brooklyn con Battery, en una distancia de 2.730 metros, que es bautizado “Lincoln I”.

En 1945, en los Estados Unidos se construye el “Lincoln II” con 2.950 metros de largo, en Nueva York.

Tampoco Cuba quedó al margen de este tipo de obras y concreta en 1953 y 1958 túneles de 270 y 733 metros respectivamente.

Represa Hidroelectrica Yacireta Historia y Caracteristicas

Represa Hidroeléctrica Yacireta

Los ríos como fuentes de energía son muy importantes, especialmente los de la cuenca del Plata, aunque su aprovechamiento es reducido con respecto a la magnitud del recurso. Entre las obras más importantes se pueden mencionar las centrales binacionales de Salto Grande y Yacyretá (en construcción)».

Otras centrales también cumplen una función muy eficiente, como la de Los Reyunos sobre el río Diamante y Caverna de Río Grande, en el sistema del Río III que actúan como compensadoras en el Sistema Eléctrico Interconectado, utilizadas en los momentos de mayor demanda o en casos de emergencia.

Las principales obras energéticas también ofrecen otros beneficios a la región, como por ejemplo: riego, regulación de caudales para evitar inundaciones, mejoras en la navegabilidad de los ríos o en sus embalses para pesca, deportes náuticos etc.

Principales Centrales Hidroeléctricas de Argentina

CENTRAL

RÍO PROVINCIA POTENCIA (KW)

Yacyretá (en const.)
Piedra del Águila
Salto Grande
El Chocón
Alicurá
Río Grande
Planicie Banderita
Futaleufú
El Niliuil 1, II y III
Los Reyunos
Agua del Toro
Arroyito
Gral. Belgrano (Cabra Corral)

Paraná
Limay
Uruguay
Limay
Limay
Grande
Neuquén
Futaleufú
Atuel
Diamante
Diamante
Limay
Juramento

Corrientes
Neuquén
Entre Ríos
Neuquén
Neuquén
Córdoba
Neuquén
Chubut
Mendoza
Mendoza
Mendoza
Neuquén
Salta

2700000
1400000
1260000
(1)
1200000
1000000
750000
450000
448000
259360
224000
130000
120000
102000

(1) Apropiación de potencia según la reglamentación del acuerdo de 1947

Complejo hidroeléctrico binacional de Yacyretá
Tras varios años de observaciones, en diciembre de 1973 las Repúblicas del Paraguay y Argentina firmaron el Tratado de Yacyretá para la construcción de esta obra, denominada por algunos “el gigante de América” pues tendrá una superficie ocho veces mayor que la ciudad de Buenos Aires y permitirá un ahorro de 4.000.000 de toneladas de petróleo por año.

Las obras están emplazadas en el norte de la provincia de Corrientes, sobre el río Paraná a unos 80 Km. aguas abajo de las ciudades de Encamación y Posadas.

En un principio funcionará con 20 turbogeneradores, pero se le podrán incorporar 10 más cuando el requerimiento energético así lo indique. La energía generada por la Central será derivada a las estaciones transformadoras que cada país construye. Cuando Yacyretá funcione a pleno llegará a producir 20.300 GWh (giga wat) de energía eléctrica. Esto representa más del 60% del consumo energético actual de ambas naciones.

El objetivo principal de esta obra es la generación de energía eléctrica barata y abundante a Argentina y Paraguay y ello contribuirá al desarrollo del noreste argentino y el sudeste paraguayo, facilitando la radicación de nuevas industrias y originando polos de desarrollo.


Otros objetivos de esta obra son:

• Mejorar de la navegación en el río Paraná, especialmente en la zona de los rápidos de Apipé, que constituyen, en la época de estiaje del río, un serio obstáculo para la navegación de embarcaciones de cierto calado.

• Impulsar la producción agrícola, mediante obras de riego y drenaje.

• Desarrollar el turismo, porque en el embalse principal se podrá practicar la pesca comercial y deportiva y todos los deportes acuáticos. Además, esta actividad se verá favorecida por un puente sobre el Brazo Aña Cuá y una ruta internacional terrestre que pasará por la cresta de un tramo de la presa principal que aumentarán sensiblemente la vinculación vial de ambas naciones.

En el proyecto de la obra se tiene en cuenta el impacto que la misma tendrá en el ecosistema local. Por ejemplo:

• para proteger la fauna ictiocola, se realizan construcciones para facilitar el ascenso y descenso por el río de las corrientes migratorias de peces y se instalarán estaciones de reproducción de peces en ambas márgenes del lago;

• se resguardará la fauna silvestre mediante áreas de reasentamiento y reserva, por ejemplo del “ciervo de los pantanos”, y de otras especies en extinción.

Esclusa de Navegación:

Ubicada en Rincón Santa María sobre la margen izquierda del Brazo Principal, se trata de una estructura de hormigón, dotada de un cuenco de 270 m de largo, 27 m de ancho libre y profundidad mínima de agua de 5m, apta para embarcaciones con un calado de 12 pies (3,66 m), que permitirá salvar los 23 metros de desnivel creado por el Embalse. 

La esclusa está alimentada eléctricamente desde la Central mediante una línea aérea de 13,2 Kv. y desde la Sala de Control se operan las compuertas, el tablero del sistema operativo integral y todo el equipo de control y registro correspondiente.

Permite que en un tiempo de esclusado del orden de los 45 minutos, un tren de barcazas pueda trasladarse desde aguas abajo hacia aguas arriba o viceversa, reportando uno de los mayores y más apreciables beneficios económicos para el transporte fluvial de la región, cuyas ventajas comparativas sobre el medio automotor resultan inestimables.

 

Historia del Premio Nobel Origen y Objetivos de la Entrega

Historia del Premio Nobel: Origen y Objetivos

ÚLTIMA ENTREGA PREMIOS NOBEL 2016

2016: NOBEL DE LA PAZ

Juan Manuel Santos

El Comité Noruego del Nobel ha anunciado esta mañana que el ganador del Premio Nobel de la Paz es el presidente de Colombia Juan Manuel Santos. El Comité reconoce así el esfuerzo del mandatario por alcanzar un acuerdo de paz con la guerrilla de las FARC después de 5 décadas de conflicto.

//historiaybiografias.com/linea_divisoria6.jpg

2016:NOBEL DE FÍSICA

David Thouless, Duncan Haldane y Michael Kosterlitz

Nobel de Física 2016: Los científicos británicos David Thouless, Duncan Haldane y Michael Kosterlitz, son tres investigadores que tienen una gran trayectoria, sus logros sorprenden al mundo desde los años sesenta. Gracias a sus descubrimientos se podrán desarrollar nuevos materiales, porque permitieron destacados avances en la comprensión de los misterios de la materia y crearon nuevas perspectivas para la cración de increíbles materiales con propiedades sorprendentes.

//historiaybiografias.com/linea_divisoria6.jpg

2016:NOBEL DE MEDICINA

//historiaybiografias.com/archivos_varios5/nobel2016medicina.jpg

Se eligió al japonés Yoshinori Ohsumi con el galardón del Nobel de Medicina 2016 por el descubrimiento del mecanismo de la autofagia celular.

//historiaybiografias.com/linea_divisoria6.jpg

2016:NOBEL DE LITERATURA

Bob Dylan premio noble de literatura

Bob Dylan, el músico, cantante y poeta estadounidense, de 75 años de edad, fue reconocido por su trabajo y ganó el Premio Nobel de Literatura 2016. El galardón fue otorgado por «generar nuevas expresiones poéticas entre la gran tradición musical americana».

//historiaybiografias.com/linea_divisoria6.jpg

2016: NOBEL DE ECONOMÍA

NOBEL DE ECONOMIA

Se  decidió conceder el premio Nobel de Economía 2016  a Oliver Hart y Bengt Holmström, por sus aportaciones en el campo de la ‘Teoría de los Contratos’. En esta teoría se analizan cómo se elabora la contratación y sus diversos efectos, sobre todo en el mundo de la empresa.

//historiaybiografias.com/linea_divisoria6.jpg

IMAGEN MEDALLAS PREMIO NOBEL

imagen de las medallas premio nobel

//historiaybiografias.com/linea_divisoria6.jpg

EL TESTAMENTO DEL ALFRED NOBEL

“La totalidad de mis bienes realizables deberá ser utilizada de la manera siguiente: el capital, invertido en valores seguros por mis albaceas, constituirá un fondo cuyos intereses serán distribuidos cada año en forma de premios a las personas que, durante el año anterior, hayan aportado los mayores beneficios a la humanidad.

Los citados intereses serán divididos en cinco partes iguales que serán repartidas como sigue: una parte a la persona que haya hecho el descubrimiento o el invento más importante en el campo de la física; una parte a la persona que haya hecho el descubrimiento o mejora más importante en química; una parte a la persona que haya hecho el descubrimiento más importante en el dominio de la fisiología o de la medicina; una parte a la persona que haya producido, en el campo de la literatura, la obra más notable de tendencia ideal; y una parte a la persona que haya llevado a cabo la mayor o mejor labor en favor de la fraternidad entre las naciones, por la abolición o reducción de los ejércitos permanentes y por la celebración y el fomento de congresos por la paz.

Los Premios de Física y de Química serán concedidos por la Real Academia Sueca de Ciencias; el de Fisiología o Medicina por el Karolinska Institutet de Estocolmo; el de Literatura por la Academia Sueca en Estocolmo, y el de los paladines de la Paz por un comité de cinco personas elegidas por el Parlamento noruego.

Es mi voluntad expresa que, en la adjudicación de los premios, no se considere en forma alguna la nacionalidad de los candidatos, sino que deberá recibir el premio el más digno, independientemente de que sea escandinavo o no «

París, 27 de noviembre de 1895.

LOS PRIMEROS AÑOS

El testamento de Alfred Nobel, escrito sin ayuda legal, fue firmado en noviembre de 1895, en presencia de cuatro de sus amigos en el Club Sueco de París: Thorsten Nordenfelt, Sigurd Ehrenborg, R.V. Strehlenert y Leonard Hvass.

Lejos estaba de imaginar los varios años de luchas testamentarias y de múltiples dificultades que se agazapaban en aquel documento. No sólo el carácter poco usual del testamento, sino también sus términos tan generales -en él se omitieron las más mínimas precisiones formales y legales-, propiciaron amplios debates en sectores diversos de la sociedad.

En el testamento, del cual se reproduce aquí sólo la cláusula que da origen a los premios Nobel nombró como ejecutores testamentarios de sus bienes a Ragnar Sohlman -su ayudante particular en los últimos años- y a Rudolf Liljeqvist -industrial sueco-. además, una parte de su patrimonio a algunos de sus familiares más cercanos Sin embargo, no estableció -como hubieran querido sus albaceas- indicaciones particulares para la aplicación y normatividad de la cláusula creadora de los premios.

El primer inconveniente de tipo práctico lo encontraron Sohlman y Lilljeqvist, en las diligencias correspondientes al registro y aprobación legal del propio testamento: el tribunal judicial que habría de dirimir sobre la homologación del mismo debía corresponder al lugar de residencia legal de Alfred Nobel; así, cualquier inventario financiero y las ejecuciones testamentarias en general debían ser amparados por la verificación oficial. Las objeciones por parte de la familia Nobel -formales unas y bastante pasionales otras- no se hicieron esperar.

Si bien Alfred Nobel canceló expresamente sus disposiciones testamentarias anteriores, no faltó la alusión reiterada a ellas en vista, principalmente, a la forma legal más depurada de las anteriores y, por supuesto, al evidente perjuicio causado, en la última voluntad del testador, al monto de la herencia familiar. La diferencia de opinión entre los dos bloques más grandes de la familia Nobel, comprendidos principalmente por sus parientes suecos y por sus parientes rusos, se convirtió en la base de una polémica ante la opinión pública, expresada en una especie de “campaña” de la prensa escrita de la época. Todo se inició con tintes de “normalidad” apenas cuatro días después del funeral de Nobel, cuando un diario de Estocolmo publicó la cláusula referente a los premios y se extendió en comentarios valorativos sobre la voluntad de Alfred Nobel. Calificaron dicha cláusula como “una merced hecha al género humano, con el propósito de fomentar su desarrollo futuro y promover su bienestar, así como para servir a designios puramente idealistas; probablemente la más espléndida en su clase que una persona particular hubiera tenido nunca el propósito y la capacidad de realizar”.

Sin embargo, el interés y difusión de la prensa tomaría caminos hacia la polémica. Los diarios suecos no sólo dudarían de la aplicabilidad real de los deseos de Alfred Nobel, sino que llegarían inclusive a instar a la impugnación del testamento en favor de la familia y a apoyar los temores expresados por las instituciones requeridas por Nobel para la asignación de los premios. De esta manera, proliferaron las objeciones al testamento. Este fue, incluso, llamado “magníficas intenciones, magnífico desatino”.

Los “cargos” más importantes contra él fueron así recogidos por su leal ayudante y albacea: “la clara falta de patriotismo mostrada por un sueco que, mientras despreciaba los intereses nacionales de Suecia, había querido, en cambio, apoyar ciertas actividades internacionales; la incapacidad de las instituciones designadas como adjudicadoras de los premios para cumplir satisfactoriamente las tareas que se le encomendaban, que interferirían, además, en sus actividades normales y expondrían a sus miembros al intento de soborno y corrupción, y, finalmente, la disposición por la cual el Premio de la Paz tenía que ser concedido por una comisión nombrada por el Parlamento noruego podría acarrear los mayores peligros para los intereses suecos, especialmente en vista de las tirantes relaciones entre Suecia y Noruega acerca de la unión que estaba entonces vigente”.

Los albaceas, en su afán de actuar de conformidad con los deseos de Nobel, se encontraron con otros problemas más: la validez del testamento estaba supeditada a la aceptación, por parte de las organizaciones legatarias de los premios, de las donaciones respectivas. En los primeros momentos algunas de éstas se concentraron en debates acerca de la conveniencia de aceptar tal responsabilidad y, por supuesto, se vieron retrasadas las negociaciones, respecto a los términos de dicha aceptación y a las implicaciones de tipo legal y social.

Fueron el apoyo y la justeza de proceder de Emanuel Nobel los que comenzaron a romper el muro de complicaciones al que se enfrentaron sus albaceas. Emanuel no sólo les recordaba a éstos constantemente la importancia de su papel (solía referirse a la “obligación implicada en la palabra rusa de albacea, Dushe Prikashshik, que quiere decir “el portavoz del alma” y a la importancia de que los dos seleccionados por su tío obrasen en consecuencia), sino que junto con Carl Lindhagen -consejero legal y judicial- se constituyó en elemento clave en la consolidación definitiva de la voluntad Nobel.

De esta manera, Emanuel Nobel -como representante de la parte rusa de la familia-, después de declarar oficialmente el 11 de febrero de 1898, su desinterés por impugnar la voluntad testamentaria de Alfred Nobel y, por ende, su apoyo irrestricto a sus disposiciones-, colaboró en las negociaciones con los restantes parientes.

Paralelamente a las discusiones con los parientes de Nobel, los albaceas realizaron aproximaciones a las organizaciones legatarias de los premios y argumentaron correctamente los aspectos relacionados con la residencia legal de Alfred Nobel quien no había tenido realmente ninguna. Esto complicaba el hacer efectivos los bienes en tanto no estuviera clara la “nacionalidad” del patrimonio, que, en el momento de morir Nobel, se encontraban distribuidos por Francia, Alemania, Suecia, Rusia, Escocia, Inglaterra, Italia, Austria y Noruega

Ahora bien, la conveniencia determinada por los albaceas -en aras de cumplir estrictamente la voluntad del testador e, igualmente, de evitar a toda costa los descuentos de impuestos de cada país-, apuntaba a formalizar en Suecia la jurisdicción sobre el testamento. Se propuso, entonces, como domicile de fait la casa de campo deBjórkborn (en cercanías de Bofors), pues allí había vivido Nobel sus últimos años.

Para esta época las instituciones previstas por Alfred Nobel para la adjudicación de premios se mostraban menos reacias a colaborar con la causa. Aunque la Real Academia de Ciencias se negó reiteradamente a nombrar delegatarios para las reuniones y trabajos relacionados con la constitución de la futura Fundación Nobel -pese a la insistente solicitud de los albaceas-, su presencia, de todas formas, fue decisiva en el momento de solicitar la legalización del testamentó en cuestión.

En 1897 el testamento fue presentado para su homologación en el Juzgado Provincial de Karlskoga (en cuya jurisdicción se incluía tanto Bofors como Bjórkborn), por parte del propio gobierno sueco, los albaceas respectivos, la Academia Sueca, la Real Academia de Ciencias, el Karolinska Institutete, incluso, por el Parlamento Noruego.

Sin embargo, fueron necesarios varios meses más para que dicha legalización fuera posible: se necesitó, en primer lugar, la aprobación del testamento de la familia en pleno y, en segunda instancia, superar el escepticismo de las instituciones respecto a los lineamientos generales estipulados en el convenio con dichos parientes.

El convenio contenía varias cláusulas especiales -incluidas más tarde en los propios estatutos de la Fundación Nobel-, las cuales debían ser aprobadas, además, por las asociaciones en cuestión y por el gobierno sueco. Después de aceptado plenamente, por aprobaciones oficiales sucesivas durante junio y julio de 1898, el 9 de septiembre del mismo año el gobierno sueco admitió la legalidad y viabilidad del testamento de Alfred Nobel.

Dos meses después se reiniciaron las reuniones con la presencia de los delegatarios de la Real Academia de Ciencias, con quienes se habría de perfilar definitivamente la Fundación Nobel. Se necesitaron nuevas energías para superar con éxito las nuevas polémicas: la problemática respecto a la organización de la Fundación en general y de los Institutos Nobel por un lado; así como también la referente a la normatividad y finanzas concernientes a la adjudicación de los premios. Finalmente, el 29 de junio de 1900, fueron promulgados por decreto gubernamental los estatutos bajo los cuales funcionaría la Fundación y que habían sido propuestos por la comisión encargada.

Fueron necesarias algunas adaptaciones ala voluntad final de Nobel. La más significativa provenía de las palabras de Nobel, según la cual, el premio debía otorgarse a obras o trabajos del “año precedente”. La idea original de Alfred Nobel era posibilitar a los galardonados la continuación de sus actividades con cierta tranquilidad económica.

Las condiciones reales no permitieron, sin embargo, la realización práctica de esta cláusula. Los trabajos preparatorios de los estatutos de la Fundación Nobel necesitaron de muchas vueltas al problema. Al final, se solucionó con los términos del apartado siguiente: “la disposición testamentaria de que la adjudicación anual de premios se referirá a obras realizadas durante el año precedente se entenderá en el sentido de que las adjudicaciones se harán para las obras más recientes en los campos culturales aludidos en el testamento, y para obras anteriores sólo si su importancia no se ha hecho notar hasta hace poco”, (Fines de la Fundación. Estatutos de la Fundación Nobel).

De todas maneras, sigue manteniéndose la intencionalidad de Alfred Nobel. Sus palabras verificarían este hecho: “Extender el conocimiento es extender la prosperidad -y me refiero a una prosperidad real, no a la riqueza individual- y con esa prosperidad desaparecerá la mayor parte del mal. Los progresos de la investigación científica nos hacen abrigar la esperanza de que los microbios, tanto del alma como del cuerpo, serán gradualmente exterminados y que la única guerra que librará la humanidad en el futuro será contra esos microbios»

Con este criterio general se comenzaron a otorgar los premios Nobel a partir de 1901: tradicionalmente la ceremonia de entrega se ha realizado en el aniversario de la muerte de Alfred Nobel, el 10 de diciembre.

Ver: Nobel Año 2013 (en Flash, No Celulares)

Explosivos Aplicados A La Guerra

Las Fibras Opticas Fundamentos Tipos, Usos y Aplicaciones

Fundamentos y Uso de las Fibras Ópticas

Las investigaciones en el campo de la electrónica y las comunicaciones encuentran en la tecnología de la fibra óptica un interesante campo de experimentación. La fibra óptica es un filamento cilíndrico transparente, fabricado en vidrio, que posee la propiedad de propagar las ondas electromagnéticas colocadas en el espectro visible

Fundamento de las tecnologías ópticas

fibra optica

La comunicación entre dispositivos electrónicos se verifica a través de ondas electromagnéticas.

Cuanto mayor es la frecuencia de la onda mayor cantidad de información puede ser transmitida.

Dado que la luz es  también una onda electromagnética, cuya frecuencia es muy elevada, el flujo de información que transporta es, consecuentemente, muy superior al que se obtendría utilizando otros tipos de ondas.

Los cables de fibra óptica se emplean para la iluminación de espacios de difícil acceso (por ejemplo, en las operaciones de microcirugía), para la transmisión de imágenes (es el caso de la televisión por cable) e informaciones y, de manera especial, en el ámbito de las telecomunicaciones por láser.

Componentes de la fibra óptica

Las fibras ópticas están formadas por dos elementos: un núcleo cilíndrico y una funda envolvente, denominada vaina. Ambos componentes se fabrican en vidrio aunque siguiendo procesos distintos, puesto que es necesario que el índice de refracción difiera en uno y otro.

De este modo, la velocidad a la que viajan las ondas es distinta en el núcleo y en la vaina. La mezcla del vidrio con materiales impuros determina las variaciones en el índice de refracción.

El diámetro de una fibra óptica oscila entre los 10 y los 100 micrómetros un micrómetro equivale a la millonésima parte de un metro—; la unión de fibras ópticas determina la formación de haces que pueden ser rígidos o flexibles, y transmitir -tanto la luz como imágenes o informaciones, dependiendo de las aplicaciones.

El índice de refracción del material con el que está fabricada caracteriza una fibra óptica; asimismo, ha de tenerse en cuenta la caída de la señal que las atraviesa, que se encuentra estrechamente relacionada con su longitud y con la frecuencia de la radiación empleada.

Tipos de fibra óptica

Fibras de Índice abrupto

En las fibras de índice abrupto la velocidad a la que se propagan las ondas electromagnéticas es inferior en el núcleo con respecto a la envoltura. Cuando los rayos penetran en la fibra con un ángulo pequeño, rebotan al chocar con las paredes, en función de la diferencia del índice de refracción entre ambos componentes.

Por el contrario, si el ángulo de penetración de la radiación electromagnética es elevado, los rayos se pierden. Es también el ángulo de entrada del rayo de luz lo que determina la velocidad de transmisión.

Así, si su dirección es paralela al eje de la fibra, «viaja» más rápidamente; si, por el contrario, penetra desviado, describe una trayectoria más larga, puesto que avanzará rebotando en los puntos de unión del núcleo y la vaina.

En este caso, la señal luminosa se pierde progresivamente en función de la distancia. Para solucionar el problema es necesario incorporar al sistema repetidores de la señal, a determinadas distancias.

Fibras de Indice gradual

A diferencia de lo que ocurre con las fibras de índice abrupto, en este caso el índice de refracción del núcleo no es constante, sino variable: es mayor en el centro y menor en el borde —lo que determina un incremento en la velocidad de la luz—.

De esta manera se igualan las velocidades de los rayos, sin que el factor «ángulo de entrada» sea determinante.

En síntesis, en las fibras de índice abrupto la luz viaja por el núcleo, pero el desfase producido entre las ondas provoca pérdidas al cabo de pocos kilómetros, puesto que no todos los rayos recorren la misma distancia: unos pueden viajar rectos, mientras otros, al rebotar en las paredes, recorren un camino en zigzag y, consecuentemente, mayor distancia.

Esta cuestión se soluciona en las fibras de índice gradual, haciendo que la velocidad aumente en las partes laterales, para compensar así la mayor longitud del camino a recorrer. En cada punto de la fibra la velocidad es inversamente proporcional al índice de refracción.

Aplicaciones

Fibras conductoras de luz

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Fibras conductoras de imágenes

Para la transmisión de imágenes las fibras del haz han de aparecer ordenadas, no simplemente yuxtapuestas, como sucede en el caso de la conducción de la luz. Efectivamente, si la posición relativa de las fibras es idéntica en los dos extremos del haz, resulta posible que la imagen formada en el primer extremo se propague hacia el final del sistema, con un grado de nitidez que viene determinado por el diámetro de cada fibra individual. La longitud habitual de estos conjuntos ordenados de haces, también flexibles, oscila entre 50 cm y 1 m de longitud.

Fibras conductoras de información

A mediados de los años sesenta del siglo XX comenzó a pensarse en la posibilidad de transmitir a gran distancia la luz modulada por señales, utilizando para ello fibras ópticas. No obstante, los primeros resultados en este nuevo ámbito de experimentación se produjeron ya en la década siguiente, gracias a la obtención de fibras con un elevado grado de transparencia, que determinaran pérdidas suficientemente pequeñas. En un principio, el sistema se utilizó para transmisiones entre puntos cercanos —dentro, por ejemplo, de una aeronave—.

Sucesivos avances en este campo dejaron patente, á comienzos de los ochenta, la posibilidad cercana de sustituir el cableado coaxial por cables de fibra óptica. La reducción de las dimensiones y el peso del sistema, además de una mayor insensibilidad a las perturbaciones derivadas de eventuales campos magnéticos, se revelaron pronto como las principales ventajas de esta sustitución.

Asimismo, la introducción de cables de fibra óptica permitía un considerable ahorro de cobre y aseguraba, sin necesidad de recurrir a amplificaciones intermedias, un alcance muy superior al obtenido con los pares coaxiales.

Conexiones telefónicas

La introducción de cables de fibra óptica en las conexiones telefónicas, donde la señal ya no está constituida por una corriente eléctrica, sino por una onda luminosa, ofrece la posibilidad de transmitir impulsos en cantidad y calidad decididamente mayor, además de a una velocidad más elevada. El proceso requiere la instalación de una amplia red de fibras ópticas. Este proyecto, hoy en vías de realización, lleva el nombre de cableado y constituye un paso importante que cambiará sensiblemente los hábitos y costumbres del hombre, ahora en el centro de la revolución telemática.

La televisión por cable y las autopistas de información: En ambos campos, la tecnología de la fibra óptica ofrece interesantes posibilidades. La televisión por cable implica un cambio en la forma de transmisión de la señal, que, en lugar de propagarse a distancia, circula por cables. En un principio, se emplearon pequeños cables coaxiales normales, análogos a los utilizados para la telefonía; hoy, en cambio, se utilizan cables de fibra óptica que permiten una transmisión más rápida.

Asimismo, las autopistas de la información son posibles gracias a la sustitución del tradicional hilo metálico por los cables de fibra óptica. En este tipo de conexión, las señales circulan en forma digital, formadas esencialmente por secuencias de ceros y unos que sustituyen a las anteriores señales de tipo analógico.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)

Las Fibras Artificiales y Sintéticas Tipos , Diferencias y Características

Las Fibras Artificiales y Sintéticas
Tipos de Fibras, Diferencias y Características

HISTORIA: El arte de entrelazar las fibras textiles animales o vegetales para protegerse de las adversidades climáticas se remonta al comienzo de la existencia del hombre. Se puede afirmar que en esa época se realizaron los primeros entrecruzamientos de fibras; fue ése el remoto principio de la industria textil.

Las leyendas históricas y monumentos de pueblos primitivos se refieren a los vestidos; en las antiguas tumbas de los reyes egipcios se encontraron momias recubiertas de tejidos de lino y algodón. Se cree que la seda natural se conoció y empezó a emplearse en China 4000 años a.C. De China se difundió a la India y a Siria desde donde, luego, los mercaderes occidentales la llevaron a Roma en el primer siglo de nuestra era.

Los árabes introdujeron en España y Portugal el arte de cultivar el algodón y el gusano de seda. Las Cruzadas, en el año 1100 d.C, llevaron a Italia el gusano de seda; allí se elaboraron tejidos con hilados propios y, a partir del año 1500, esa región proyectó hacia el mundo la total mecanización de la industria textil.

Las Fibras Textiles

Son todas aquellas fibras que, manufacturadas en forma conveniente, pueden ser entretejidas. Estas fibras, al ser procesadas, son transformadas en hilos delgados, largos y resistentes, que pueden ser usados para producir tejidos, cuerdas, alfombras, etc. Las fibras textiles pueden ser de origen natural o artificial; en el primer grupo se encuentran las de origen vegetal y animal.

Las fibras artificiales se fabrican a partir de la transformación química de productos naturales; las fibras sintéticas se elaboran mediante síntesis químicas, a través de un proceso denominado polimerización.

Introducción:
Los primeros plásticos:
El primer plástico se produjo en Estados Unidos con motivo de un concurso. En la década de 1860, se ofrecieron 10.000 dólares a la persona que consiguiera reemplazar el marfil —cuyas reservas se agotaban— por un material igualmente bueno para fabricar bolas de billar. Ganó el premio John Wesley Hyatt con un material llamado celuloide.

El celuloide se fabricaba disolviendo celulosa, un hidrato de carbono obtenido de las plantas, en una solución de alcanfor y etanol. Este nuevo material encontró pronto amplia utilización para fabricar una gama de productos tales como mangos de cuchillo, puños y cuellos de quita y pon, monturas de gafas y película fotográfica. Sin el celuloide, no hubiera podido arrancar la industria cinematográfica, a fines del siglo XIX.

El celuloide puede ser ablandado repetidamente y moldeado de nuevo por la acción del calor, por lo que recibe el calificativo de termoplástico. En 1907 Leo Baekeland (1863-1944), un químico belga que trabajaba en Estados Unidos, inventó otro tipo de plástico, al provocar que el fenol y el formaldehído reaccionaran juntos. Baekeland lo llamó baquelita, y fue el primero de los tennofraguantes: plásticos que pueden ser fundidos y moldeados mientras están calientes, pero que no pueden ser ablandados por el calor y moldeados de nuevo una vez que han fraguado.

La baquelita es un buen aislante y es resistente al agua, a los ácidos y al calor moderado. Con estas propiedades, no tardó en utilizarse en la fabricación de interruptores, artículos domésticos como mangos de cuchillos y componentes eléctricos para automóvil.

La proliferación de los plásticos
A causa de estos éxitos, los químicos comenzaron a buscar otras moléculas sencillas que pudieran enlazarse para crear polímeros. En la década de los 30, químicos británicos descubrieron que el gas etileno polimerizaba bajo la acción del calor y la presión, formando un termoplástico al que llamaron polietileno.

El polipropileno vino después, en los años 50. Ambos se emplean para fabricar botellas, tuberías y bolsas de plástico. Un pequeño cambio en la materia prima —reemplazando en el etileno un átomo de hidrógeno por un átomo de cloro— produjo el PVC (cloruro de polivinilo), un plástico duro y resistente al fuego, adecuado para desagües y alcantarillado. Añadiendo ciertas sustancias químicas, se puede producir una forma blanda de PVC, adecuada como sustituto del caucho en algunos artículos como la ropa impermeable. Un plástico muy parecido es el teflón o PTFE (politetrafluoretileno). Su coeficiente de fricción, muy bajo, lo hace ideal para cojinetes, rodillos y sartenes antiadherentes.

El poliestireno, desarrollado durante los años 30 en Alemania, es un material transparente y parecido al vidrio; se emplea en la fabricación de envases de comida, electrodomésticos y juguetes. El poliestireno expandido —una espuma blanca y rígida— se usa mucho en embalaje y aislamiento. Los poliuretanos, inventados también en Alemania, encontraron utilidad como adhesivos, para revestimientos y, en su forma de espumas rígidas, como materiales aislantes. Todos estos plásticos se producen con sustancias químicas derivadas del petróleo, que contiene exactamente los mismos elementos —carbono e hidrógeno— que muchos plásticos.

LAS FIBRAS: Frente a las fibras naturales, elaboradas a partir de componentes animales (lana, seda) o vegetales (algodón, lino), las fibras sintéticas y artificiales son el resultado de transformaciones químicas. Antes de analizar detenidamente estos dos últimos tipos de fibras, es necesario establecer una clara distinción entre los conceptos sintético y artificial.

El término sintético hace referencia a un producto obtenido a partir de elementos químicos. Por ejemplo, el amoníaco a partir del hidrógeno y el oxígeno. Por el contrario, el adjetivo artificial, en este contexto, alude a un producto elaborado mediante compuestos ya existentes en la naturaleza.

Las fibras artificiales

Las fibras textiles artificiales poseen propiedades semejantes a las de las fibras naturales. Aunque pueden obtenerse a partir de proteínas vegetales presentes en determinadas plantas —cacahuete, maíz o soja—, generalmente derivan de la celulosa y de la caseína. La celulosa, un hidrato de carbono complejo, es el componente básico de las paredes de las células vegetales.

De color blanco, sin olor ni sabor, sus aplicaciones industriales no se reducen al campo textil; se emplea, asimismo, en la fabricación de papel, plásticos o explosivos. Por su parte, la caseína es una proteína rica en fosfatos, que se encuentra presente en la leche de los mamíferos; por la acción de enzimas se transforma en para caseína insoluble (queso).

Las primeras investigaciones sobre fibras artificiales

La historia de las fibras artificiales comenzó a partir de los primeros intentos de producir seda artificial. Los principales avances en este campo se encuentran estrechamente vinculados a las investigaciones del químico francés Hílaire Berniggaud, conde de Chardonnet (Besançon, 1839 – París, 1924>, considerado como el auténtico impulsor de la industria de tejidos artificiales.

Aplicando a la celulosa los disolventes adecuados, obtuvo una solución densa y viscosa, que filtró a través de una plancha en la que había practicado previamente diminutos agujeros. Al atravesar la placa, el líquido formaba pequeños filamentos que, una vez secos, constituían fibras fáciles de adaptar al hilado y al tejido. Chardonnet había obtenido una nueva fibra, el rayón. Se trataba de un material semejante a la seda, de gran resistencia y poco inflamable.

El rayón

Como se ha indicado, el rayón, la más común de la fibras artificiales, se elabora a partir de la celulosa. El proceso de fabricación difiere según el procedimiento empleado; en función de ello recibe la denominación de rayón, viscosa, acetato de celulosa o Bemberg. En el caso de la viscosa, la celulosa se trata con sosa cáustica concentrada y, posteriormente, se disuelve en disulfuro de carbón. El proceso en todos ellos es, no obstante, idéntico en lo esencial.

En un primer momento, la celulosa se reduce a pasta y, tras ser purificada, se extiende hasta que adopta una disposición en forma de lámina. El empleo de diversas sustancias químicas, según los diferentes métodos, permite su solubilización. Como resultado de este primer tratamiento se obtiene un líquido de apariencia viscosa, que se ultra a través de una hilera. Se forman así los filamentos, que adquieren la consistencia deseada gracias a la evaporación del disolvente con que se ha tratado la celulosa, o bien a través de baños de coagulación. Una vez secos, los filamentos se retuercen, quedando listos para el proceso de hilado.

El copo de rayón, parecido al de algodón, se obtiene tras cortar el hilado a determinada longitud. La mezcla de rayón con seda, lino o algodón permite, siguiendo las técnicas habituales de hilatura, fabricar tejidos mixtos.

Las fibras sintéticas

El proceso de polimerización, aplicado a determinadas materias primas, permite la obtención de fibras sintéticas. Los polímeros son moléculas orgánicas complejas, formadas como resultado de la unión de varias moléculas orgánicas simples, los monómeros. Al constituirse un polímero, los monómeros forman entre sí una larga cadena lineal, con extraordinarias condiciones de ligereza, elasticidad y resistencia. Dichas propiedades son fundamentales para la fabricación de todo tipo de fibras. En este sentido, los polímeros se emplean, además de para fabricar tejidos, en la elaboración de plásticos, productos estructurales diseñados para resistir esfuerzos —parachoques de automóviles, tuberías—, aislantes, filtros, cosméticos, así como en la industria eléctrica, electromecánica, del mueble o de la construcción. Las fibras sintéticas se pueden clasificar en: políamidas, poliésteres, poliacrílicas, polivinilos y polipropilénicas.

Fibras sintéticas en la industria textil

La elaboración de fibras sintéticas textiles se realiza a partir de materias primas que se encuentran con relativa facilidad y son, en términos generales, poco costosas: carbón, alquitrán, amoniaco, petróleo, además de subproductos derivados de procesos industriales. Las operaciones químicas realizadas con estos materiales permiten obtener resinas sintéticas que, tras su hilado y solidificación, resultan elásticas, ligeras y muy resistentes tanto al desgaste como a la presencia de ácidos u otros agentes externos. La incorporación de un colorante al polímero permite teñir el material antes de su hilado, lo que se traduce en un óptimo nivel de estabilidad cromática en la fibra, que, además de no desteñir, elimina la necesidad de recurrir a posteriores operaciones de fijado del tinte.

El nailon

A comienzos de siglo Wallace H. Carothers inventó el nailon, a partir de la polimerización de una amida —cada uno de los compuestos orgánicos nitrogenados que resultan de sustituir uno, dos o los tres hidrógenos del amoniaco por radicales ácidos— Carothers descubrió que el polímero resultante presentaba la propiedad de transformarse fácilmente en filamentos.

Fue en la década de los años treinta cuando se inició la fabricación de nailon a gran escala. El éxito fue muy rápido, lo que favoreció la aparición de otras fibras. El nailon se emplea, por ejemplo, para confeccionar géneros de punto. En 1940 la empresa Du Pont comercializó las primeras medias fabricadas con esta fibra.

Celuloide, 1860

Respecto a este tipo de plástico, en el libro PIONEROS, de Teo Gómez, nos dice: En términos generales, podríamos denominar plástico a toda sustancia elástica que posee ciertas propiedades, entre las que podría englobarse el caucho, pero en un sentido más estricto, denominamos plásticos a ciertos polímeros derivados del petróleo. Entre ellos, el primero en descubrirse fue el celuloide.

La causa, un concurso convocado en Estados Unidos para encontrar un sustituto del marfil, que se estaba agotando, para las bolas de billar. Uno de los participantes fue el inventor neoyorkino John Wesley Hyatt, quien empezó a experimentar con nitrato de celulosa y consiguió que esta fecha fuera recordada como la de la invención del celuloide, aunque no consiguió estabilizarlo hasta unos años después con la adición de alcanfor.

Presentó la patente en 1870 y se encontró con las demandas de Alexander Parkes, quien había inventado un material parecido, la parkesina, e incluso consiguió que un juez le declarara inventor del proceso, pero el nombre de celuloide se lo llevó Hyatt. Éste era un material flexible, transparente, resistente a la humedad y muy inflamable. No tardó en empezar a investigarse para su uso en fotografía, y en 1885, Eastman Kodak desarrolló la primera película fotográfica flexible que sustituye al daguerrotipo de vidrio que se estaba usando hasta entonces.

En 1889 se produce la primera película de celuloide transparente, que se siguió usando hasta que en los años veinte se sustituyó por el acetato de celulosa, menos inflamable. Eastman Kodak tuvo que vérselas con la invención del reverendo Hannibal Goodwin, quien en 1887 había patentado la película flexible de celuloide después de haberla hecho servir en el kinetoscopio de Edison.

Eastman, que había asistido a las primeras demostraciones de Goodwin, fue demandado por la empresa que se quedó la patente de aquel, Ansco, y tuvo que pagar una elevada indemnización.

Otras poliamidas

Otros ejemplos de poliamidas son el lilión o el perlón, que, con frecuencia, se utilizan en copos que se mezclan con lana y algodón en hilados mixtos. El resultado son fibras más reforzadas. Una de las propiedades características de las poliamidas es su elevado grado de resistencia a la rotura.

Entre los poliésteres cuyo uso está más extendido en la industria textil, pueden mencionarse el dacrón y el terital, que derivan del carbón y del petróleo. A su resistencia añaden cualidades de indeformabilidad; además, no se arrugan.

En la confección de géneros de punto se utilizan habitualmente fibras acrílicas como el leacril, el dracón o el orión, derivados del carbón, el petróleo y el gas natural. Su propiedad fundamental es que son muy ligeras.(ver: La Fibra de Seda Natural)

Fuente Consultada:
Gran Enciclopedia Universal
PIONEROS, Inventos y descubrimientos claves de la Historia – Teo Gómez

Fermi Enrico Biografia Pila Nuclear Primera Reaccion en Cadena

Fermi Enrico, Biografía
Logra La Primera Reacción en Cadena Controlada

Enrico Fermi nació en Roma, Italia, el 29 de septiembre de 1901.  Murió 28 de noviembre de 1954.  Era hijo de un oficial de ferrocarril, estudió en la Universidad de Pisa desde 1918 hasta 1922 y más tarde en las Universidades de Leyden y Gottingen.  Se convirtió en profesor de física teórica en la Universidad de Roma en 1927.

El dominio completo de la desintegración del átomo se alcanzó en 1942, cuando el italiano Enrico Fermi hizo funcionar, en la Universidad de Chicago, la primera pila atómica. En ella se provocó la primera desintegración autosostenida y controlada, es decir, la reacción en cadena. La desintegración de un átomo provoca la de otro, y así sucesivamente, hasta alcanzar la energía y el calor que se requieren.

A raíz de este trabajo se conoce a Fermi como el «Padre de la Bomba Atómica. El átomo, intuido y conocido por el hombre desde el siglo V antes de Cristo, siendo la base fundamental de la materia, ha sido estudiado y penetrado hasta arrancarle sus secretos y convertirlo, al menos por ahora, en el elemento más destructor que jamás la humanidad haya conocido. (Fuente Consultada: Libros Maravillosos Sobre Física)

Enrico Ferm

Sagaz teórico y brillante experimentador, FERMI, con sus colaboradores, sometió una larga serie de elementos al bombardeo por neutrones.

Una pequeña ampolla que contenía una mezcla de polvo de berilio y de radón constituía la fuente de proyectiles y lanzaba por segundo 20.000.000 de neutrones contra blancos formados por las sustancias elegidas para la investigación.

Las energías individuales de los proyectiles se repartían sobre una escala amplia; muchos alcanzaban hasta 8.000.000 de electrón-voltios.

La mayoría de los sesenta y tres elementos que FERMI y sus colaboradores investigaban, cedieron a la acción transformadora del bombardeo y se volvieron activos. Si bien la duración de la vida del núcleo activado raramente sobrepasó algunos minutos, FERMI y sus colaboradores lograron identificar la naturaleza química de los elementos portadores de la actividad inducida.

De las sustancias examinadas por FERMI, más de cuarenta se revelaron transmutables por la irradiación neutrónica. Así los muros del núcleo se habían abierto al intruso neutrón. Mas, seis meses después de sus primeros ensayos de bombardeó neutrónico, FERMI y su equipo, guiados por un azar benévolo, realizaron un descubrimiento de excepcionales alcances. Al procurar mejorar el rendimiento de las transmutaciones, notaron que la intensidad de la activación como función de la distancia a la fuente, presentaba anomalías que dependían —así parecía— de la materia que rodeaba a la fuente neutrónica.

Comprobaron que el pasaje de los proyectiles a través de sustancias hidrogenadas como agua y parafina, en vez, disminuir —como hubiera podido creerse—, aumentaba de manera sorprendente, a menudo en la relación de uno a cien, la eficacia de los proyectiles y la consiguiente actividad de la  materia bombardeada. FERMI interpretó con admirable sagacidad el efecto imprevisto: los neutrones —al penetrar en la sustancia hidrogenada— pierden rápidamente energía en sus reiterados choques con los protones.

Expulsados por la fuente  con una velocidad de varios millares de kilómetros por segundo, se convierten al atravesar una pantalla de parafina en neutrones lentos con una velocidad del orden de un kilómetro por segundo, casi desprovistos de energía y mas o menos en equilibrio térmico con la materia que los rodea.

El efecto descubierto por FERMI es sumamente extraño y sin modelo en nuestro mundo microscópico donde la eficacia de los proyectiles crece con su energía cinética. Lo mismo sucede con proyectiles cargados en el mundo  microscópico. Los físicos que habían bombardeado los blancos atómicos con partículas alfa, con deutones o protones, pusieron su empeño en acelerar los proyectiles: los tubos de descarga de COCKCROFT los generadores electroestáticos de VAN DF GRAAFF, los ciclotrones LAWRENCE, fueron inventados y construidos, en primer término para servir a esa finalidad. Antes del descubrimiento de FERMI los investigadores hubieran comprendido difícilmente que e: menester moderar la velocidad de un proyectil para aumento su eficacia.

Mas con los neutrones que no llevan carga y que por ende, están libres de toda repulsión por parte de las barro ras de potencial eléctrico de los núcleos, el problema cambio de aspecto. Dada su pequeña velocidad, los neutrones lento —explicó FERMI— tienen tiempo para sufrir la acción de lo núcleos que atraviesan y dejarse capturar por éstos gracias a un efecto de resonancia con las capas neutrónicas de los núcleos efecto del cual la mecánica ondulatoria permite dar cuenta.

La facilidad con que los neutrones lentos se incorporan en los núcleos, provocando su transmutación, permitió a FERMI y a sus colaboradores producir isótopos radiactivos de una larga serie de elementos Los isótopos así obtenidos, más pesados que la sustancia primitiva, se desintegran expulsando electrones negativos; como la pérdida de una carga negativa equivale a la ganancia de una Positiva, se forman de esta manera nuevos núcleos con números atómicos más elevados que el núcleo primitivo. Este proceso que FERMI encontró como regla para el bombardeo neutrónico de los elementos pesados, cobró particular interés cuando el físico italiano atacó en 1934 al más pesado de los elementos naturales, el uranio.

El núcleo de este último radiactivo en estado natural, se desintegra irradiando una partícula alfa, disminuyéndose así en dos su número atómico. Sin embargo, era de esperar que el núcleo de uranio, expuesto al bombardeo neutrónico, al capturar un neutrón, se desintegrara con emisión de un electrón, lo cual aumentaría su número atómico en una unidad, formando entonces un elemento desconocido de número 93.

Si éste resultaba radiactivo a su vez, podía dar nacimiento a un elemento de número 94 expulsando un electrón. Átomos nuevos, inexistentes en la naturaleza terrestre, aparecerían  así y ocuparían en la tabla de MENDELEIEV casillas situadas mas allá del uranio, elementos transuranianos.

IRENE CURIE

En efecto, en la primavera de 1934, FERMI creía haber producido núcleos con números atómicos mayores que el del uranio. Guiada por la misma hipótesis, IRENE CURIE, procuró establecer la naturaleza química de la enigmática sustancia engendrada por el bombardeo neutrónico del uranio.

Llegó al sorprendente resultado de que las propiedades del elemento desconocido eran análogas a las del lantano. El número atómico de este último es 57, el número de su masa 139; los números correspondientes de uranio son 92 y 238. ¿Cómo admitir, se preguntó IRENE CURIE, que la desintegración del uranio hubiese producido lantano?. (imagen izq. Irene Curie y Su esposo Joliet)

 Todas las reacciones nucleares conocidas hasta entonces habían llevado a elementos cercanos en número atómico y en número másico a los de la sustancia primitiva. Ni IRENE CURIE ni su colaborador PAUL SAVITCH sospecharon que se encontraban ante una reacción nuclear de tipo completamente nuevo, y estaban lejos de pensar que el intrigante fenómeno con que habían tropezado tenía alcances formidables, superiores a los del supuesto hallazgo de un elemento transuraniano. La presencia del lantano entre los productos de la desintegración del uranio, hizo nacer dudas en el espíritu del físico berlinés OTTO HAHN (1879-1968), quien resolvió repetir y verificar a fondo las experiencias parisienses.

HAHN y su colaborador FRITZ STRASSMANN

Para identificar los nuevos radio-elementos, HAHN y su colaborador FRITZ STRASSMANN (1902) (foto derecha: Hahn y Meitner) acudieron a los procedimientos clásicos de precipitación y cristalización fraccionadas. Sin embargo, cuando trataron de separar el nuevo radio-elemento del bario —empleado como elemento de arrastre—, fracasaron todos sus esfuerzos.

Ante la imposibilidad de realizar la aludida separación, HAHN y STRASSMANN terminaron por admitir, tras muchas vacilaciones, que el núcleo de uranio bombardeado por neutrones, en lugar de limitarse emitir partículas de pocas masa, se habría quebrado en gruesos fragmentos, de los cuales uno sería posiblemente el núcleo del bario y el otro probablemente el del kriptón.

Las masas de los dos fragmentos serían sólo aproximadamente iguales, ya que la ruptura puede producirse de distintas maneras y puede originar incluso más de dos fragmentos. Hipótesis osada fue ésta HAHN y STEASSMANN formularon en enero de 1939 con toda las reservas, puesto que ese tipo de reacción nuclear no tenía precedentes en la experiencia.

Sin embargo, el irrecusable testimonio de los hechos no tardo en apuntalar sólidamente la Suposición de los dos investigadores y las confirmaciones que afluyeron de todas partes pusieron pronto fuera de duda la realidad del fenómeno que HAHN y STBASSMANN habían bautizado como KERNSPAITUNG: partición o “fisión” del núcleo uránico. El nuevo fenómeno concentró casi inmediatamente el interés de todos los laboratorios de física atómica en el viejo y en el nuevo continente.

En efecto, si el núcleo de uranio se divide en gruesos fragmentos, la suma de las masas de estos es considerablemente inferior a aquella del núcleo inicial. En lugar de la masa que desaparece , se libera una cantidad extraordinaria de energía, a la que el cálculo asigna por núcleo cerca de 200.000.000 de electrón-voltios. Así, la ruptura de todos los átomos presentes de una molécula-gramo de uranio liberaría una cantidad de energia equivalente a 6.000.000 de kilovatios-hora, la suficiente para llevar a la ebullición instantánea 50.000.000 de litros de agua.

Dos investigadores expulsados de Alemania por el régimen hitleriano, LISA MEITNER (1878-1969) y ROBERT FRISCH (1904), simultáneamente con aportar la primera prueba experimental al fenómeno de HAHN y STRASSMANN, bosquejaron una teoría de la “fisión” nuclear. ¿Cómo explicar que una excitación moderada la captura de un neutrón, baste para producir una ruptura explosiva del núcleo? ¿Por qué esta captura provoca fisiones en los núcleos más pesados y no en los livianos?  La respuesta que MEITNER y FRISCH sugirieron se inspiró en el modelo de BOHR  del núcleo.

BOHR había asimilado el núcleo a una gota líquida; ésta, puesta en vibración, puede quebrarse en dos gotitas más pequeñas, como el núcleo puede dividirse en dos fragmentos gracias al aporte de una energía exterior. El fenómeno tiene mayor probabilidad de producirse cuanto mas pesado y menos estable es el núcleo considerado. En el  núcleo muy complejo del uranio repleto de protones, las fuerzas repulsivas que se ejercen entre las partículas cargadas son casi tan grandes como las fuerzas de intercambio protono-neutrónicas garantes de la cohesión del núcleo.

Es pues lógico admitir, concluyeron LISA MEITNER y FRISCH, que una excitación moderada de esos núcleos puede determinar su ruptura. Guiado por consideraciones teóricas, BOHR (foto izquierda)y su discípulo WHEELER reconocieron, en febrero de 1939, que el uranio “fisionable” por neutrones lentos no es el isótopo corriente con el número másico 238, sino el isótopo raro con número másico 235, presente en el uranio natural en cantidades muy reducidas (0,7%). Poco antes FERMI había sugerido que durante el proceso de la “fisión” del núcleo de uranio, además de los pesados fragmentos animados por una tremenda energía cinética, se lanzan también neutrones.

Esta suposición abrió una perspectiva de formidables alcances e hizo entrever la posibilidad de una reacción auto sustentadora, es decir, una reacción en cadena, capaz de poner al alcance del hombre la liberación de la energía atómica en una escala ponderable.

En efecto, por considerable que sea la energía de 200.000.000 de electrón-voltios liberada por la ruptura de un solo núcleo, la cantidad total de la energía liberada no pasaría de la escala microscópica, si solamente parte infinitesimal de los núcleos presentes se desintegrara por el bombardeo. Pero el problema cambia de aspecto si el proyectil neutrónico expulsa del átomo neutrones que pueden servir a su vez como proyectiles.

Al penetrar éstos en los núcleos vecinos, producen nuevos proyectiles, y de esta manera la “fisión” de un núcleo entraña rápidamente la de otros y la reacción, una vez desencadenada, es susceptible de mantenerse por sí misma, propagándose como fuego en un pajar. Distinta en todos sus aspectos de las reacciones nucleares estudiadas hasta entonces, la reacción en cadena prometía la utilización práctica de la energía nuclear, ya como fuerza propulsiva de máquinas, ya como explosivo para superbombas.

Esta promesa dio excepcional importancia a la perspectiva abierta por FERMI y confirió jerarquía histórica a la reunión de eminentes físicos realizada a fines de enero de 1939 en Washington en la que el problema fue discutido.

Fuente Consultada: Historia de la Ciencia Desidero Papp

Teoría de la Desintegración Nuclear

Nueva Solucion Al Teorema de Fermat William Porras

PROLOGO DE SU LIBRO
fermatCon respecto a Pierre de Fermat: ¿sería cierta su afirmación de que tenía una  “maravillosa demostración” en 1637?

Pénsemos solamente en esto: la demostración de Wiles ocupa unas 200 páginas mecanografiadas, y utiliza curvas elípticas, esquemas de grupos, el Álgebra de Hecks, la Teoría de Iwasawa, la Teoría de Von Neumann-Bernays- Gödel, la de Zermelo-Fraenkel y decenas de otras complejas herramientas  matemáticas, todas desarrolladas muy recientemente (hablando únicamente en  términos históricos).

No hay duda que los métodos utilizados por Wiles no existían cuando Fermat  escribió su famosa nota al margen del libro, pero también es verdad que podría  existir una demostración más corta, sencilla y que solamente echase mano de  procedimientos conocidos en el siglo XVII. Podría existir, pero nadie la ha  encontrado escrita ni publicada en ninguna parte. Creo que ahora ya la  tenemos.

Fermat siempre fue muy cuidadoso en sus afirmaciones, nunca quiso publicar  sus investigaciones y solo por el interés de su hijo fue posible conocer este  teorema y en cierta forma después de 400 años de haber nacido y 374 años de  su afirmación creo sinceramente que sí pudo haber tenido una demostración de su famoso Último teorema de Fermat.

Vicealmirante ® José William Porras Ferreira

DESCARGAR SU NUEVO LIBRO

NUEVO: Demostración de la Conjetura de Goldbach
por José William Porras

Nicolás Tartaglia
Grandes Matemáticos

Matemáticos y Físicos
Pacioli y Fibonacci
Conjetura de Goldbach
Vesica Picsis

 

Solucion Simple del Teorema de Fermat Ultimo

COMO ESTE MATEMÁTICO COLOMBIANO PRESENTA UNA
SOLUCIÓN MAS SIMPLE AL LEGENDARIO PROBLEMA DE FERMAT
(en estos momentos dicha solución se está analizando en Francia)

fermatTodos los científicos anteriores trataron de demostrar el teorema de Fermat, tratando a los números primos por diferentes métodos, esto porque los números primos forman las ternas pitagóricas de bases menores (algunos le dicen ternas reducidas) ami me gusto llamarlas ternas pitagóricas de bases menores, porque son las mas pequeñas y sobre las cuales se pueden construir o formar las ternas pitagóricas de bases mayores.

Cuando estaba explorando esa manera de demostrar, note una propiedad fundamental de la ecuación de Fermat y es que Z para n=2, era mayor que Z para n=3, que Z para n=4 y así sucesivamente, y me dio por cambiar el método de la demostración que los grandes matemáticos no habían podido, seguramente porque no notaron esa propiedad y ahí se me ocurrió hacer z=y+m para n=2 y comencé ha estudiar las ternas pitagóricas cuando m era un numero natural, (1,2,3,4…)y ha compararlas con la de los números primos y encontré que mi método aun era superior, porque en forma muy sencilla podía calcular cualquier terna pitagórica en forma ordenada para cualquier X par o X impar.

Luego se me ocurrió hacer z=y+q para n>2 y por la propiedad de la ecuación de Fermat, lógicamente demostré que q<m y fue un avance tremendo, porque ya había encontrado que q<1 para x impar (m=1) o x par (m=2), luego z para n>2 era un numero fraccionario y por lo tanto parte de la demostración ya estaba resuelto. Ahora para los casos de m un numero fraccionario, lógicamente z para n=2 era fraccionario, pero no era garantia que  también fuese un numero fraccionario, ahi ocurrió otro chispazo, porque por relación de triángulos semejantes me fue muy fácil de mostrar que  también era un numero fraccionario y por lo tanto z para n>2 era un numero fraccionario.

Hasta ahi fue la primera parte que te mande. Luego en una presentación ante los profesores de matemáticas, cai en cuenta que habían algunos números primos que podían formar ternas pitagóricas y q>1, y pensé que todo mi trabajo se iba al suelo, porque no era una demostración completa, sin embargo me puse a estudiar el binomio de Newton porque ya se me había ocurrido que debía haber una relación entre Pitágoras y Fermat, y fue cuando logre la comprobación general de que z=wy, siendo siempre 1<w<(raíz n de 2) con una mantisa infinita, luego z para n>2 seria siempre fraccionario.

Esa fue la parte que amplíe y que te mande. Todo este trabajo me llevo mas de dos años de investigación y desarrollo de la demostración, puedes ver que no es fácil, bueno fueron 374 años en que nadie lo logro, y Wiles empleo mas de 8 años para demostrarlo empleando la conjetura de Taniyama-Shimura y empleando otros trabajos básicos como el de llevar la ecuación de Fermat a una ecuación elíptica que lo hizo otro científico matemático y en general la demostración de Wiles, primero no es fácil de entenderla, hubo mucho trabajo y desarrollo matemático, empleo de cálculos matemáticos por computador y mas de 100 hojas para poder demostrarlo , que es muy meritorio porque fue el primero que lo logro, pero pienso que en la época de Fermat no existían todas esas herramientas matemáticas, mientras que mi demostración, solo emplea el teorema de Pitágoras (mas de 2000 años que se conoce), análisis, y visión de haber visto la propiedad de la ecuación de Fermat y haber cogido un camino diferente para trabajar las ternas pitagóricas, que nadie lo había explorado, porque todo el mundo se iba era por el camino conocido de los números primos.

Había otro camino, y pienso que Fermat seguramente lo vio también, en esta forma se revindica su nombre, porque Fermat aseguraba que tenia una demostración pero el margen de la aritmética donde ponía sus notas era muy estrecho. Además descubrí otro triangulo con propiedades especiales basadas en la ecuación de Fermat, por eso le puse el ultimo triangulo de Fermat.

Esta es mi historia, la pasión por las matemáticas, el reto que suponía que nadie había podido demostrarlo en forma sencilla al alcance del entendimiento de cualquier persona que supiera algo de algebra, geometría y trigonometría, que eran los conocimientos del siglo XVII, me llevaron a entablar ese reto que tuvo un final feliz, gracias a Dios, mi familia que me alentaba y me daba el tiempo para lograrlo, la exigencia era muy grande porque necesitaba mucha concentración.

Ver Solución Sencilla Al Problema De Fermat

Grandes y Famosos Matemáticos
Problema de Fermat

Biografía Giordano Bruno Condenado Por Herejia a la Hoguera

Biografía: Giordano Bruno, Condenado a la Hoguera

GIORDANO BRUNO, condenado a la hoguera

(Nola, 1548 – Roma, 17 de febrero de 1600)  Filósofo italiano. Cursó los estudios primarios en su ciudad natal. Movido por una profunda vocación religiosa, ingresa muy joven en la Orden dominicana.

Sus nuevas teorías contra la concepción cosmológica aristotélica, influido en muchos aspectos por Copérnico, pronto le ocasionaron importantes problemas con las autoridades de la diócesis, por lo que decide abandonar la ciudad.

Giordano ve en Europa amplias posibilidades para desarrollar su teoría filosófica y comienza una gira por diferentes países del continente. Sobre el arte de retener en la memoria las verdades adquiridas y descubrir otras mediante la combinación de diferentes términos, inspirados en el «Ars magna» de Raimundo Lulio (1232), compone una serie de escritos que obtuvieron una considerable resonancia. Tuvo gran aceptación -quizás por su prestigio de gran maestro en el arte combinatorio de Lulio- su comedia «Candelaio».

PRIMEROS PROBLEMAS: comenzaron durante su adoctrinamiento, al rechazar tener imágenes de santos, aceptando sólo el crucifijo. En 1566 tuvo lugar el primer procedimiento en su contra por sospechas de herejía. Dicho proceso no prosperó y, en 1572, fue ordenado como sacerdote dominico en Salerno y pasó al estudio de Santo Domingo Mayor, recibiendo en 1575 el título de Doctor en Teología de la Orden.

En 1576 fue acusado de desviarse en la doctrina religiosa y tuvo que abandonar la orden, huyendo a Roma, donde consiguió asilo en el Convento de Santa María, en Minerva. Después de viajar por Italia y Francia llegó a Ginebra. Allí abandonó los hábitos.

Bruno residió durante bastante tiempo en Oxford, donde compuso la mayoría de sus diálogos italianos. También vivió en Alemania, donde realizó sus poemas latinos. Tras aceptar una proposición de Giovanni Mocenigo para que le enseñara el arte de la memoria, se traslada a Venecia. Sin embargo, pronto todas sus ilusiones se verán frustradas cuando el mismo Mocenigo, poco después de su llegada a la ciudad italiana, le denuncia a la Inquisición. Al poco tiempo, el filósofo es trasladado a Roma en calidad de arrestado y tiene que sufrir una condena de siete años en la cárcel.

A las numerosas invitaciones que Bruno recibió para que se retractase de sus teorías filosóficas, siempre respondió con negativas y su caso hubo de ser sometido nuevamente a sentencia con el veredicto final de pena capital. Fue quemado vivo en la plaza de Campo dei Fiori.

El Juicio a Giordano Bruno: A instancias de Giovanni Moncenigo, noble veneciano, regresó a Italia. Moncenigo se convierte en su protector, para impartir cátedra particular. El 21 de mayo de 1591 Moncenigo traiciona a Bruno entregándolo a la Santa Inquisición. El 27 de Enero de 1593 se ordena el encierro de Giordano Bruno en el Palacio del Santo Oficio, en el Vaticano.

Estuvo en la cárcel durante casi ocho años mientras se disponía el juicio —bajo el tribunal de Venecia—, en el que se le adjudicaban cargos por blasfemia, herejía e inmoralidad; principalmente por sus enseñanzas sobre los múltiples sistemas solares y sobre la infinitud del universo. Durante la ocupación napoleónica se han perdido la mayoría de los folios de ese juicio.

En 1599 se expusieron los cargos en contra de Bruno. Las multiples ofertas de retractación fueron desestimadas. Finalmente, sin que se tenga conocimiento del motivo, Giordano Bruno decidió reafirmarse en sus ideas y el 20 de enero de 1600 el Papa Clemente VIII ordenó que fuera llevado ante las autoridades seculares. El 8 de febrero fue leída la sentencia en donde se le declaraba herético impenitente, pertinaz y obstinado. Fue expulsado de la iglesia y sus trabajos fueron quemados en la plaza pública.

Durante todo el proceso fue acompañado por monjes de la iglesia. Antes de ser ejecutado en la hoguera uno de ellos le ofreció un crucifijo para besarlo pero Bruno lo rechazó, diciendo que moriría como un mártir y que su alma subiría con el fuego al paraíso. Fue quemado el 17 de febrero de 1600 en Campo dei Fiori, Roma.

OBRAS: Sus obras más importantes son «La cena del Miércoles de Ceniza», «Della causa, principio ed Uno y Dell’infinito Universo e mondi»; todas ellas se refieren a la filosofía naturalista de que era propulsor. De carácter moral son sus diálogos: «Lo spaccio della bestia trionfante», «Cabala del cavallo Pegaseo», «Degli eroici furori», etc. Destacan también sus tres poemas latinos: «Dei minimo», «De monade» y «De immenso et innumerabilibus».

En cuanto a su pensamiento, Bruno afirma que el más alto grado del conocimiento humano es la íntima unión con la naturaleza en su sustancial unidad, expuesto concienzudamente en «Degli eroici furori». Según Bruno, el hombre debe dirigir sus actos en perfecta conformidad a la necesidad natural, así como el ideal para el conocimiento humano consistiría en la identificación total con la naturaleza.

Una Anécdota Histórica: Giovanni Mocinego —personaje que traicionara a Giordano— fue acusado de herejía por descubrírsele tratando de dominar las mentes ajenas, cosa que Bruno se negó a enseñarle. Nunca se le tomó preso ni existió proceso en su contra. El Papa Clemente VIII dudó de la sentencia impuesta a Giordano antes de dictarla por dos razones:
1) No deseaba convertir a Bruno en un mártir
2) pensó en un momento que podía ser un ser santificado.
Filippo Bruno dijo al momento de recibir su sentencia: «ustedes tienen más miedo al leer mi sentencia que yo al recibirla».

PARA SABER MAS…
GIORDANO BRUNO, UNA VIDA ERRANTE
Uno de los pensadores más importantes del tiempo de Kepler y Galileo que, como éstos, fue víctima de la persecución eclesiástica fue Giordano Bruno (1548-1600), muerto en la hoguera a manos de la Santa Inquisición.

FORMACIÓN RELIGIOSA
Su formación fue eminentemente religiosa, primero en la orden de predicadores y luego, en 1565,60 la de los dominicos; en ellas se especializó en dialéctica, en filosofía aristotélica y en la teología de santo Tomás de Aquino. Pero Bruno no aceptaba todos los dogmas cristianos, poniendo en duda las imágenes de los santos, por lo que tuvo que sufrir pronto las sospechas por herejía.

De todos modos, en 1572fue ordenado sacerdote dominico en Salerno y obtuvo su doctorado en Teología, aunque cuatro años después volvió a ponerse en duda su entrega a la Iglesia, y acabó marchándose a Roma, para luego huir a Francia y Ginebra, donde abandonó su carrera eclesiástica. Allí, entró en contacto con Cal-vino, fundador de una república protestante, a la que criticó tan duramente que fue encarcelado, hasta que se vio obligado a retractarse y salir de Ginebra.

CONDENA Y HOGUERA
Instalado en Francia como profesor en la Universidad de París, en 1581, gracias al permiso del rey Enrique III, empezó a divulgar sus primeras obras, para más tarde viajara Londres como secretario de un embajador francés y en donde daría clases de cosmología copernicana en Oxford.

En 1585, volvió a Francia, pero como siguió teniendo problemas con el orden establecido, retomó su itinerario por distintas ciudades europeas, como Marburgo.Wittenberg, Praga, Helmstedty Frankfurt, donde logró publicar buena parte de su obra.

Al fin, merced a la ayuda del noble veneciano Giovanni Moncenigo, Bruno regresó a Italia. Pero su destino no se apartaba de las persecuciones por herejía. En 1592, Moncenigo lo denunció ante la inquisición; acusado de cometer blasfemias, tener una conducta inmoral y afirmar que el universo es infinito, permaneció encarcelado en el palacio del Santo Oficio del Vaticano, desde enero de 1593 hasta el día en que fue quemado vivo el 16 de febrero de 1600, en Campo de Fiori.

Según cuentan las crónicas, Bruno se negó a retractarse, durante su largo encierro; llegó a tal punto la confianza en sus ideas, que en el momento previo a la ejecución, cuando un monje le ofreció un crucifijo para besarlo, el pensador lo rechazó diciendo que no iba a morir como un mártir y que su alma ascendería al paraíso. Antes déla hoguera, tuvo tiempo de dirigirse a los jueces y pronunciar esta rotunda frase: «Tembláis más vosotros al anunciar esta sentencia que yo al recibirla».

Fue autor de obras decisivas, entre ellas Sobre el infinito universo y los mundos (1584) y De los heroicos furores (1585). / T M.

Temas Sobre Astronomía
copernico/kepler/tycho brahe/galileo galilei/astronomiacarrera espacial/
Biografía de
Copérnico
Biografía de
Johannes Kepler
Biografía de
Tycho Brahe
Biografía de
Galileo Galilei
Curso Básico de
Astronomía
Carrera
Espacial

Mujeres Malvadas Malas Asesinas Brunilda Historia y Leyendas

Mujeres Malvadas, Asesinas: Brunilda – Historia y Leyendas

Era muy lista, pero muy cruel y muy audaz. Llevó adelante , y hasta las últimas consecuencias, su animadversión absoluta para la otra reina, Fregegunda de Neustria, con la que guerreó sin piedad y sin cuartel. Eran tal para cual, y tan sádicas la una como la otra.

Brunilla llegó a a educar a sus hijos y nietos dándoles clases de sexo y violencia, de como disfrutar sin freno de las orgías y de como , también sacar el máximo jugo al arte de matar. Ella misma, para dar ejemplos prácticos, ejecutaba ante sus tiernos escolares a alguien, como aquella ocasión en la que el condenado a morir fue todo un santo: san Desiderio, que Brunilda mandó lapidar por haberse atrevido a darle ciertos consejos sobre absurdos principios morales…

No obstante, su brillante carrera de crímenes había dado comienzo antes de su enemistad con la otra reina. Nada más casarse con Segiberto de Austrasia, le obligó a guerrear con su propio hermano, Chulderico de Neustra, ya que este último había repudiado a Galsuínda, hermana de ella.

Aquella guerra finalizó con la muerte de Segiberto, su esposo, al que le guardó brevísimo luto ya que volvió a casarse con Meroveo, hijo de Childerico, el que había matado a su esposo y la había hecho viuda, al tiempo que le proporcionaba el poder en forma de regencia por la minoría de edad de su nieto Teodoberto II, el cual, al crecer y conocer la no ejemplar biografía de su querida abuela, la expulsó de su lado.

Fue la infeliz Brunilda a buscar refugio junto a otro nieto, Teodorico II, rey de Borgoña, al que consiguió poner en contra de Teodoberto en una guerra fratricida, que acabó pese a las malas artes de la abuela. Contrariada, Brunilda decide matarlos a ambos, estrangulando a Teodoberto y envenenando a Teodorico, y libre ya de cualquier miembro de la familia que pudiera arrebatarle el poder, se proclamó doble reina de Borgoña y Austrasia.

Fue entonces cuando se acordó de aquella odiada Fredegunda, viuda también deChilderico. El odio hacia aquella mujer era imposible de soportar, por lo que la Reina de la doble corona decidió vengarse, una vez más, en terceras personas. Y así, declaró una guerra más, en esta ocasión, al hijo y sucesor en el trono de Fredegunda, el rey de Neustria, Clotario II.

Pero serían sus propios dobles súbditos los que le negaron nuevas levas y nuevos impuestos con que pagar aquellas guerras tan inútiles y odiosas. Y sublevándose contra su señora Brunilda, la maniataron y se la enviaron como trofeo al rey Clotario. El Rey agradeció el obsequio y se decidió a tomar cumplida venganza de todos los crímenes de aquella mujer tan inclinada a la maldad.

Aunque había sobrevivido a su gran rival, sin embargo Fredegunda se vengó de ella, después de muerta, en la persona, y por mediación, de su hijo el rey Clotario II, quien, en 613 y en Renéve, Bretaña, tras tres días de interminables suplicios, ató, desnuda, a la enemiga de su madre a la cola de un caballo salvaje hasta acabar destrozada después de una loca cabalgada del equino. Brunilda era, a la sazón, la primera mujer en ser torturada y ejecutada por aquel sistema, privilegio exclusivo de los reos de sexo masculino hasta ese momento.

Fuente Consultada: Los Seres Mas Crueles y Siniestros de la Historia de José M. López Ruiz

Central Nuclear Atucha I Historia De La Energia Nuclear en Argentina

Central Nuclear Atucha I: Historia De La Energía Nuclear en Argentina

Durante el gobierno de Perón en 1949, Argentina comenzó a construir las instalaciones para investigar esta novedosa y gigantesca energía atómica que había acabado con la Segunda Guerra Mundial, al arrojar dos bombas en Japón. Bajo la dirección del científico alemán Ronald Richter, que había asegurado al máximo mandatario argentino, que él podía lograr energía atómica controlada, Perón informa al mundo que Argentina había conseguido tal tecnología, pero luego de una investigación se demostró que lamentablemente todo había sido una gran mentira y aun hoy pueden verse todas esas instalaciones abandonadas e inutilizadas. Richter fue separado de su cargo, y vivió en el país hasta su fallecimiento en 1991. (ver: Los Nazi en Argentina)

Pero todo es tan malo como parece, pues como positivo podemos decir que a partir de aquella aventura el gobierno decidió la creación  de la Comisión Nacional de Energía Atómica (CNEA), el 31 de mayo de 1950, quien daría a través de todos estos años todos los éxitos en el campo de la ingeniería nuclear.

La Argentina tiene dos reactores en operación: Atucha I, con 370 mw(e) de capacidad bruta instalada, y Embalse, con 648 mw, que hacen una potencia de generación bruta total de 1.018 mw. Hay también un tercer reactor en construcción, Atucha II, con 745 mw. La construcción de este reactor ha estado paralizada debido al monto de inversión que requiere completar la obra.

Central Nuclear Atucha I Historia De La Energia Nuclear en Argentina

Un reactor nuclear es un componente que se diseña para crear las condiciones especiales para que la reacción en cadena tenga lugar de manera controlada y sostenida dentro de sus límites de seguridad. Este principio de fisión es el que permite que una central nuclear, al igual que una central térmica o hidráulica, genere electricidad para el consumo doméstico e industrial. (ver energía nuclear)

La construcción de la Central Nuclear Atucha I se inició en el año 1968 y su puesta en régimen se realizó durante el año 1974 entregando una potencia de 357 MWe con una tensión de 220 kV. al Sistema Argentino de Interconexión. La central nuclear de Atucha I es la primera instalación nuclear de Argentina y de América Latina destinada a la producción de energía eléctrica.

La Central Nuclear Atucha I está situada a 100 Km. de la Ciudad de Buenos Aires, de fácil acceso por la Ruta Nacional N°9, a 11 km de la localidad de Lima, Partido de Zárate.  Se encuentra emplazada sobre la margen derecha del Río Paraná de las Palmas En sus más de 30 años de exitosa operación, Atucha I ha generado más de 65.000 millones de Kwh. de energía limpia, confiable y segura.

La Central Nuclear Atucha I emplea uranio levemente enriquecido al 0,85%. Es refrigerada y moderada con agua pesada (D20). Pertenece al tipo de reactores PHWR (reactor de agua pesada presurizado).

En la actualidad, como parte del Plan Energético 2004-2008, el Gobierno Nacional ha dispuesto completar la obra e instalación de Atucha II, que estaría en condiciones de operar entre 2009 y 2010. La generación de electricidad de origen nuclear en Argentina alcanzó 6.873,4 gwh(e) en 2005, cifra que representa el 7,1% del total de producción eléctrica del país. El sector nuclear argentino, basado en la Comisión Nacional de Energía Atómica (CNEA), ha sido objeto de importantes cambios en la organización, estructura y objetivos, reasignándose las responsabilidades.

La CNEA se define como una institución de investigación y desarrollo en el área nuclear. Sus tareas abarcan desde la investigación en las ciencias básicas de la energía nuclear hasta el desarrollo de prototipos de ingeniería y ensayos de planta piloto, y es además responsable de la gestión de residuos radiactivos y el desmantelamiento de las instalaciones nucleares y radiactivas. Los cambios realizados han conducido a la creación de distintas sociedades, que realizan actividades de sectores que anteriormente formaban parte de la CNEA.

Así, las centrales nucleares están operadas por la empresa NUCLEOELÉCTRICA ARGENTINA S.A., constituida por capital estatal, pero sujeta a privatización por la legislación vigente.

También la CNEA constituyó otras sociedades:

• INVAP S.E., para desarrollos de investigación aplicada en el área nuclear y de tecnologías innovativas.
• NUCLEAR MENDOZA S.E., para la realización de trabajos de minería y servicios asociados a la producción de uranio.
• CONUAR S.A., para la fabricación de elementos combustibles de las centrales nucleares y reactores de investigación.
• FAE S.A., para la fabricación de materiales especiales.
• ENSI S.E., para la operación y explotación de la Planta Industrial de Agua Pesada.
• DIOXITEK S.A., para la elaboración de di óxido de uranio.

Asimismo, se ha creado la Autoridad Regulatoria Nuclear, un ente autárquico dependiente del Poder Ejecutivo Nacional, que tiene como función ejercer la autoridad de regulación en el área nuclear.

La Central Nuclear Atucha I, de 357 MW eléctricos, está en operaciones desde el año 1974 y forma parte del Sistema Interconectado Nacional. Opera fundamentalmente como central de base y ha estado conectada a la red más de 100. 000 horas generando alrededor de 30. 000 GWh. Esto significa una disponibilidad promedio real superior al 84%, cifra alcanzada en el mundo sólo por pocas centrales nucleares.

Fuente Consultada:
Argentina Una Visión Actual y Prospectiva desde la Dimensión Territorial Juan A. Roccatagliata
La Enciclopedia del Estudiante Tomo 21 Geografía Argentina
Sitio Web:
http://www.cnea.gov.ar/proyectos/atuchaii.php

Teoría de la Desintegración Nuclear

El Uranio en Argentina