Grandes Ideas De La Ciencia

Marcello Malpighi Padre de la Histología Grandes Cientificos Sin Fama

En el siglo del italiano Marcelo Malpighi (1628-1694), la conjunción de la ciencia y la técnica engendran el mundo moderno. Brillantes investigadores contrastan con los médicos antiguos. Aunque el combatido William Harvey, que estudió en Padua, le corresponde el honor de haber demostrado el mayor descubrimiento de siglo, la circulación de la sangre, casi no hay término de la anatomía que no nos recuerde a alguno de sus admirables contemporáneos: se habla de glándulas de Bartholin, de cisterna de Pecquet, de conducto de Stenon, de senos de Valsalva, de folículos de Graaf, de conducto de Wirsung, de capas y glomérulos de Malpighi, etc.

Revelar la insólita realidad del universo fue tarea de estos titanes visionarios. Además, los primeros instrumentos ópticos eran malos, deformaban el objeto como un calidoscopio, lo coloreaban y eran más dignos de un volatinero que de un sabio. Copérnico no interesaba, en parte porque no “demostraba” nada práctico.

MARCELO MALPIGHI (1628-1694):Malpighi, nacido en una pequeña localidad próxima a Bolonia, Italia, el año 1628, ingresó a estudiar medicina en la Universidad de Bolonia donde tuvo como profesor a un renombrado anatómico, Massari, quien cobró afecto a su discípulo y le facilitó su propia biblioteca para que se nutriera del conocimiento de grandes de la ciencia médica como Vesalio, Fabricius y Harvey.

También encontró allí un matrimonio feliz casándose con la hermana menor del profesor Massari,

Malpighi fue el primero en ver, con un microscopio hecho por el mismo, los alvéolos pulmonares.

El hizo un descubrimiento mayor cuando, estudiando los tejidos del pulmón, observó que las arterias pulmonares más pequeñas se subdividían para formar diminutas redes capilares. De esta forma completó lo avanzado por Harvey al descubrir la circulación de la sangre. Otro descubrimiento de Malpighi fueron los corpúsculos sanguíneos.

Comenzó con una lupa y luego Divinia, de Roma, le fabricó microscopios compuestos: en éstos el objetivo da una imagen agrandada, y el ocular hace las veces de lupa. La óptica moderna demuestra que una mayor perfección óptica es imposible. Fueron el múltiple Roberto Hooke y Nehemías Grew quienes iniciaron este esfuerzo de generaciones que concluye en el microscopio actual. Malpighi comprobó de visu (en el ala del murciélago y en el pulmón de la rana) el paso de la sangre desde el sistema arterial al venoso; demostró que los animales minúsculos también poseen órganos diferenciados y describió las tráqueas  respiratorias del  gusano de seda:  estudió  la embriología  del  pollo

En una monografía titulada La estructura y Metamorfosis de gusano de seda, hizo la primera descripción completa de la anatomía interna de un invertebrado, descubriendo los aparatos respiratorio, digestivo, excretorio, y nervioso de un insecto Particular atención puso en esos tubitos que constituyen los órganos excretorios y que describió minuciosamente, los que hasta hoy son conocidos como “tubos de Malpighi”.

Después volcó sus observaciones al estudio de la vida vegetal El microscopio le mostró una disposición de pequeñas unidades que llamó “utrículos”. De hecho se adelantó casi dos siglos a E teoría celular de Schleiden.

Fue también el primero en advertir las estomas, los pequeños poros que en la epidermis de las hojas realizan el intercambio que significa el proceso de respiración y también de la fotosíntesis de la planta. SuAnatomia de las plantas significó un gran paso para la botánica.

También aplicó el microscopio a la indagación necrópsica. Su tratado De polipo cordis y otros sucesivos, contienen referencias detalladas a la casuística anatomopatológica que fue recogiendo. Precisamente, en sus últimos años, cuando estaba en Roma, tuvo como alumnos a personajes como Giorgio Baglivi, Giovanni Maria Lancisi y Antonio Pacchioni, en cuyas obras la anatomía y la anatomía patológica están íntimamente ligadas.

Por sus estudios sobre los embriones de pollo se le considero fundador de la embriología descriptiva.

TÉCNICA Y VOLUNTAD: Los instrumentos que nos revelaron el mecanismo íntimo de la vida eran débiles, rudimentarios, inseguros. A su lado, los actuales son verdaderos prodigios. Pero no olvidemos que mediante la tenacidad y el empeño de Pasteur, de Koch, de Roux, de Behring, de Ramón y Cajal y de tantos artífices de la ciencia moderna se lograron asombrosos descubrimientos con aparatos tan incómodos c imperfectos que va ni se utilizan en sus tareas elementales.

AMPLIACIÓN DEL TEMA: Malpighi fue el primero en poner bajo el objetivo de un microscopio un fragmento de sustancia viva.

Pudo así demostrar que cada órgano viviente está formado por la unión de diversos tejidos, y cada tejido, a su vez, por la asociación de un gran número de elementos, invisibles a simple vista y de distinta forma y aspecto: las células, que él llamó “utrículos” o “sáculos”.

Casi un siglo antes, otro gran médico italiano, Andrés Cesalpino, había imaginado la necesidad de la presencia de unos sutilísimos canales, llamados hoy capilares, que uniesen las arterias con las venas, mas no probó su existencia.

Fue Malpighi quien anunció, en el año 1660 haber comprobado la presencia de los vasos capilares en una membrana del cuerpo de una rana. “He exterminado casi toda la raza de las ranas”, exclamó Malpighi. Tantas fueron las experiencias que le había costado ese descubrimiento… Malpighi demostró que los pulmones son un conglomerado de vesículas, cada una de ellas rodeada de una sutilísima red de vasos sanguíneos. El nombre de “alvéolo” con que él designó esas vesículas, aún se usa en nuestros días.

Malpighi se dedicó a la observación de la sangre y notó en ella los corpúsculos rojos. Estudió luego la estructura de la piel e individualizó en la epidermis el estrato o capa germinativa, que hoy se conoce con el nombre de capa o cuerpo mucoso de Malpighi.

Estudió los tejidos de la lengua y estableció que las papilas eran los órganos del gusto. Examinó los tejidos de numerosos elementos: hígado, bazo, riñones, etc., individualizando también en estos órganos estructuras y corpúsculos diversos, que se designan, muchos de los mismos, con su apellido, como por ejemplo las “pirámides de Malpighi” del riñón, los “glomérulos” del mismo, y los “corpúsculos” del bazo. También los dientes, los huesos y el cerebro fueron estudiados por él.

Verdadero biólogo, Malpighi se ocupó también de zoología y botánica y describió en dos tratados: De formatione pulli in ovo y De ovo incubato, el desarrollo del embrión en el huevo hasta la formación del pollito. Lo rudimentario de los elementos que usaba, en relación con ei volumen y la profundidad de su trabajo, da la medida de la agudeza y el ingenio de este sabio.

Marcelo Malpighi nació en Gevalcore, una población cercana a Bolonia, en el año 162S. A los 21 años decidió dedicarse a los estudios de medicina. Solicitó entonces entrar en una Academia, en la cual se estudiaban problemas anatómicos y se practicaban estudios sobre animales y cadáveres humanos. Esto desató la ira de los profesores que lo examinaron, contrarios a este género de investigaciones.

Por algunos años obstaculizaron su labor y se negaron sistemáticamente a permitir que Malpighi se doctorara. Sin embargo, a los 28 años era profesor universitario, y pasé su vida enteramente dedicado a la investigación, en las ciudades de Pisa, Mesina y Bolonia, obligado a estos cambios de residencia por la hostilidad de los estudiosos de entonces, partidarios de la vieja escuela.

Finalmente le fue concedida, en mérito y reconocimiento a su labor, la distinción de socio de la Real Sociedad de Londres. Casi al término de su vida, fue llamado a Roma para desempeñarse como médico del papa Inocencio XII. Allí le sorprendió la muerte el 30 de noviembre de 1694.

LISTER Joseph Padre de la Cirugia Antiséptica Metodo antiseptico

JOSEPH LISTER (1827-1912): A Joseph Lister, ilustre cirujano inglés que nació en Londres el 5 de abril de 1827, se le conoce como el padre de la moderna cirugía antiséptica.

Antes de él, las operaciones quirúrgicas eran en verdad antesala de terribles infecciones que generalmente terminaban con la muerte.

Los médicos denominaban las infecciones con diversos nombres, tales como gangrena, septicemia, piemia, erisipela, pero no sabían qué las causaba y menos aún cómo combatirlas.  

Lister se casó con la hija del doctor Jacob Syme cuando él fue a Edimburgo a trabajar con el famoso cirujano escocés. Inés sabía leer francés y fue para Uster una valiosa colaboradora como traductora.

De esa manera, por ejemplo, conoció la obra de Pasteur antes ser publicada en las revistas médicas inglesas. Pasteur había comprobado que la putrefacción era causada por organismos vivos.

Si los microbios vivían en el aire y eran la causa de las infecciones que tanta gente mataban en las salas de cirugía, pensó Lister, podían ser destruidos.

Su primera experiencia en la aplicación de su teoría tuvo lugar en 1875, cuando usó ácido carbónico en una fractura abierta. Se formó una costra con la sangre.

Las propiedades cáusticas del ácido produjeron irritación pero la herida cerró sin indicios de la tristemente famosa gangrena de hospital.

Luego Lister perfeccionó su tratamiento. Usó una mezcla de goma laca y ácido carbónico cristalino, que llamó emplasto de laca, extendido sobre calicó (una tela de algodón).

Después empleó un vendaje de gasa absorbente en vez del emplasto de laca. También Lister conservaba sus instrumentos de cirugía sumergidos en un baño de ácido carbónico junto a la mesa de operaciones.

Como la mayoría de los precursores, Lister encontró mucha resistencia y oposición entre sus colegas, sin embargo, un suceso casual, tratar un absceso que padecía la reina Victoria, fue una ayuda eficaz para Lister Como lo fue posteriormente la guerra franco-prusiana, que permitió una comprobación definitiva de la cirugía antiséptica.

En 1881, dieciséis años después de su éxito con un paciente, sus colegas en el Congreso Médico Internacional efectuado en Londres, reconocieron sus avances. Y a su trabajo lo catalogaron como quizás el avance más grande que haya hecho la cirugía. En 1883 fue hecho caballero por la reina Victoria y en 1887 fue hecho barón. Hoy día, si usted se ha tenido que someter a cualquier tipo de cirugía, como me ha ocurrido a mí, tiene para con el Dr. Joseph Lister una tremenda deuda de gratitud. Sus riesgos garantizaron nuestra seguridad.

La cirugía antiséptica se puso en práctica en toda Europa y laerisipela, la piemia y la gangrena de los hospitales fueron derrotadas.   Muchas otras aportaciones hizo Lister al desarrollo de la cirugía. Entre ellas el torniquete aórtico, la aguja de alambre, las ligaduras de catgut, el fórceps, etc. Trabajó activamente en su profesión hasta su muerte, a los ochenta y cinco años, en 1912.

OTRA VERSIÓN RESPECTO A LOS HECHOS: Ignaz Semmelweis hizo su descubrimiento en una clínica obstétrica de Viena, donde empezó a trabajar en 1844. Al igual que en otros hospitales, allí hacía estragos la fiebre puerperal. Ésta surge cuando una infección bacteriana ataca el canal de parto, invariablemente vulnerable después de nacido el niño. Semmelweis advirtió que la mortal fiebre era dos o tres veces más frecuente en una sección de la clínica dedicada a la docencia de la medicina (los estudiantes llegaban allí, para ayudar en el parto, directamente del anfiteatro). Dedujo que, de algún modo, los estudiantes acarreaban algo del cuerpo de las mujeres recién muertas de fiebre puerperal al de las que estaban pariendo.

Ese “algo” desconocido causaba la fiebre. Un limpio rompimiento Su solución fue de una sencillez asombrosa. Ordenó a los estudiantes lavarse las manos con un desinfectante de cloruro de cal diluido antes de examinar a las mujeres de la sala de maternidad. Esto disminuyó los fallecimientos en la sala de maternidad, de una de cada cinco a una de cada cien pacientes.

Asombrosamente, sus superiores en la clínica se quedaron impávidos, no entendieron las ideas de Semmelweis (todavía no se descubrían las bacterias) y se aferraron a la creencia de que la enfermedad era inevitable. Además, como se juzgaban sospechosas las opiniones políticas liberales de Semmelweis, se hizo creciente el rechazo a su trabajo. En 1850, frustrado y desilusionado, regresó a su Hungría natal. Aunque su país le brindó respaldo incondicional, la opinión médica en el resto de Europa permaneció en su contra.

Semmelweis pasó otros 15 años combatiendo al gremio médico, hasta que su ánimo se quebrantó. En julio de .865 ingresó en un hospital para enfermos mentales y al cabo de un mes murió. Semmelweis estuvo realmente a la vanguardia del pensamiento médico de a época. Más o menos cuando murió, Joseph Lister establecía en Inglaterra los principios de la cirugía antiséptica.

PARA SABER MAS…

Joseph Lister (1827-1912), cirujano inglés, se interesó en el proceso de cicatrización de las heridas. En esa época, eran muy frecuentes las infecciones y poco eficientes las terapias para combatirlas. Se pensaba que se debían a debilidades constitucionales de los pacientes.

Las heridas accidentales o las provocadas por las cirugías tenían muchas probabilidades de infectarse y provocar la muerte. Lister comenzó suponiendo que las infecciones eran debidas a algún fenómeno que se producía en la misma herida y no a causa de estados de debilidad de los enfermos, ya que morían también personas vigorosas.

Supuso que la higiene podría ayudar a, evitar las infecciones y utilizó jabón para la limpieza de instrumentos quirúrgicos y las manos de los cirujanos; se preocupó porque las salas de internación estuvieran ventiladas y no hubiera hacinación de pacientes. Las muertes disminuyeron, pero no de manera notable. Se interesó por un trabajo de otro investigador francés, Luis Pasteur (1822-1895).

El exponía su investigación realizada en la década de 1860
acerca de los gérmenes que causaban la descomposición y putrefacción de materia orgánica muerta, descomponiéndola en los elementos más simples que la forman (gases, sustancias minerales, agua).

Lister elaboró la hipótesis de que, así como los gérmenes podrían causar la putrefacción de los tejidos muertos, podrían también causar fenómenos semejantes en tejidos vivos dañados, ya que los gérmenes, según Pasteur, se encontraban en el aire, en el ambiente. Pero podían ser destruidos con el calor o algunas sustancias químicas.

Para probar su hipótesis, eligió utilizar ácido fénico diluido para que no dañara la herida e impregnaba con él los instrumentos, las manos del cirujano; pulverizaba con la solución de ácido fénico el ambiente mientras realizaba las operaciones, higienizaba y aplicaba compresas de gasas sobre las heridas para que actuaran como filtro de los gérmenes. Los casos de infección y de muerte disminuyeron y las heridas cicatrizaban sin supuraciones. Lister demostró que las heridas se infectaban en forma directa cuando tenían contacto con gérmenes. En las cirugías, los gérmenes podían provenir de los instrumentos, las manos del médico o las enfermeras, y hasta de la misma piel del paciente.

Fuente Consultada:
Historia de la medicina, J. A. Hayward, Buenos Aires,
Fondo de Cultura Económica, 1989 (adaptación).

Riegos En Las Cirugías Antiguas

ERNESTO LAWRENCE Creador del Ciclotrón Cientificos Desconocidos

ERNESTO ORLANDO LAWRENCE (1901-1958): Lawrence nació en Canton, Dakota del Sur, Estados Unidos, el año 1901. Creó el ciclotrón y realizó la primera transmutación de un elemento químico por medio de otro y no del empleo de productos radioactivos. Empleó el litio, desintegrándolo.

Lawrence realizó el sueño perseguido por los alquimista el día que cambió el platino, elemento 78, en oro, elemento 79, en experiencia posterior.

El ciclotrón permitió producir artificialmente más de trescientas substancias radioactivas, más de la mitad en el laboratorio de Lawrence en Berkeley, California. Elementos artificiales producidos por el ciclotrón, como radiofósforo, radiosodio, etc, podían darse a un paciente y seguir su trayectoria dentro del cuerpo gracias a la emisión de rayos gamma de gran velocidad que despiden. Estas experiencias resultaron de mucha importancia en la lucha contra el cáncer.

Un descubrimiento que compartió con su hermano John permitió a Ernesto Orlando Lawrence demostrar que los rayos de neutrones, subproducto del uso del ciclotrón, aunque eran cuatro veces más mortíferos que los rayos X, eran también cinco veces más eficaces para destruir tumores.

Otro producto del ciclotrón fue el descubrimiento de los llamados elementos transuránicos, comprendiendo entre ellos el lawrencio (en su nombre), elemento 103, como asimismo partículas

 

Davy Humphry Grandes Cientificos No Tan Conocidos Lampara del Minero

Humphry Davy (1778-1829) Davy nació en Pensanse, Cornualles, sudoeste de Inglaetrra, el 17 de diciembre de 1778. Hijo de un tallador de madera de cortos medios económicos. Davy entró el año 1795 de aprendiz de un cirujano.

Como el muchacho tenía muchas inquietudes, decidió, simultáneamente instruirse a sí  mismo. Fue así como estudió idiomas, filosofía y, por supuesto, ciencias. En 1798 ingresó alBeddoes’s Pneumatic lnsitute de Bristolen calidad de supervisor de experimentos.

En Beddoes conoció al gran poeta Samuel Coleridge de quien llegó aser muy amigo. Ooleridge fue una fuerte influencia sobre Davy y le inició en la filosofía de la ciencia de Kant. En 1800 Davy publicó un libro sobre el óxido nitroso (gas de la risa) que tuvo gran éxito, creándole una reputación.

Fue hacia 1806 que emprendió estudios sistemáticos de electroquímica. Ideó y desarrolló métodos de análisis fundados en el uso de corrientes eléctricas. Davy tenía el convencimiento de que la afinidad química tenía un fundamento eléctrico. Aplicando su procedimiento aisló el sodio, el potasio, el magnesio, calcio, baño, estroncio, boro, y silicio. Por aquellas fechas reinaba la teoría de Lavoisier de que el oxígeno era la base de los ácidos (oxígeno significa generador de ácidos). Davy refutó tal teoría y descubrió que los óxidos de los nuevos metales eran álcalis.

Davy se interesó siempre en las aplicaciones de la química y la física en la realidad de la industria. Fue un precursor de las aplicaciones de la química en la agricultura, dictando los prime­ros cursos sobre la materia en el mundo. Una obra suya, la lámpara de seguridad, alcanzó fama universal y salvó las vidas de miles de mineros.

A raíz de un horrible desastre minero en 1812, donde perecieron noventa y dos hombres y niños a raíz de una explosión a ciento ochenta metros bajo la superficie, los dueños de las minas plantearon a Davy el problema.

Las velas y lámparas usadas por los mineros en ese tiempo producían con suma frecuencia el estallido del gas subterráneo, llamado “metano”. Davy descubrió que ese gas no estallaba de modo violento en un tubo pequeño. Diseñó una lámpara en que el metano penetraba y salía por tubos muy pequeños.

La lámpara tenía una malla de alambre que rodeaba la llama. La malla tenía 127 orificios por centímetros cuadrado, absorbía el calor del combustible que la hacía arder y lo conducía sin que el calor inflamara el gas que estaba fuera de la lámpara. La maLLa protectora se montaba sobre un bastidor de alambres verticales y se atornillaba en anillos de bronce, en el superior tenía un asa y el inferior estaba atornillado al cuello del depósito del combustible. La luz salía por una ventanilla de vidrio protegido.

Davy gozó en vida de una enorme celebridad y para la inmorta­lidad en su tumba está escrito el siguiente epitafio: “Summus arcanorum naturae indagator’ (Sumo investigador de los arcanos de la naturaleza). Murió en Ginebra, Suiza, en 1829.

 

Berzelius Jacobo Creador del Lenguaje Cientifico de la Quimica

Juan Jacobo Berzelius: (1779-1848) Nació en Vaversande; Ostergotland, Suecia, el año de 1779. Por la muerte temprana de su padre y poco más tarde la de su madre que se había vuelto a casar, Berzelius terminó de ser criado por una tía, que al casarse con un viudo que tenía vados hijos pequeños, lo envió, a los doce años de edad, a estudiar en la escuela de Linkoping, donde, prácticamente, se autofinanció su estancia y estudios haciendo clases particulares.

Luego estudió medicina, que ejerció por corto tiempo, después química en Upsala; fue profesor de química en la Escuela de Medicina de Estocolmo. En el año de 1815 logró la cátedra de química y se retiró de la enseñanza en 1832, para dedicarse totalmente a sus investigaciones. Su vida profesional fue azarosa por lo corta de recursos eco­nómicos y también porque su verdadero interés estaba en la química.

Como dato anecdótico diremos que se casó a los cincuenta y seis años, cuando ya había alcanzado la fama, con Elisabeth Poppins, que solo tenía veinticuatro. Al casarse se convirtió en barón, por decisión del soberano rey Carlos XIV de Suecia. casado, hasta su muerte en 1848, fueron muy activos, dichosos y llenos de honores.

Una contribución importantísima de Barzelius a la química fue crear y proponer un lenguaie científico nuevo, una nueva nomenclatura, para representar los elementos y las combinaciones químicas.

Antes de él existía un caos que volvía prácticamente ininteligible, a nivel universal, la ciencia química. Berzelius codificó los elementos según la primera letra de su nombre latino, agregando una segunda letra cuando había necesidad de diferenciar dos elementos cuyo nombre comenzaba con la misma letra inicial. Por ejemplo, C para carbono, CA para calcio, CD para cadmio, etc.

Pese a su evidente ventaja sobre el engorroso y casi incomprensible sistema anterior, la nomenclatura pro­puesta por Berzelius encontró resistencia demoró, años en ser universalmente aceptada.

Berzelius descubrió el tono, el ceño y el selenio y fue el primero en aislar el circonio. También perfeccionó la tabla de los pesos atómicos de los elementos, publicada por Dalton, corrigiendo sus errores.

Los doce años que vivió casado, hasta su muerte en 1848, fueron muy activos, dichosos y lleno de honores.

AMPLIACIÓN DEL TEMA…
La obsesión por la exactitud
La experimentación científica puede evolucionar cuando se utilizan normas nuevas para la realización de experimentos ya conocidos. Éste es el caso del químico sueco Jons Jakob Berzelius, quien transformó la experimentación química de su tiempo practicando y enseñando una meticulosidad y un rigor, en los métodos de análisis químico, desconocidos hasta entonces.

La teoría atómica de Dalton implicaba que los elementos químicos deberían combinarse en proporciones enteras. Sin embargo, los datos cuantitativos existentes en 1810 no confirmaban este postulado. Cuando Berzelius intentó comparar entre sí los resultados obtenidos por distintos experimentadores, encontró numerosas incoherencias y contradicciones entre ellos, resultándole imposible conseguir que las mediciones se ajustasen a este requisito.

Si se aceptaba que la teoría de Dalton era correcta y dicha teoría no era confirmada plenamente por las mediciones de laboratorio, ello se debía a que estas mediciones no eran correctas. Sobre este razonamiento, Berzelius propuso el siguiente criterio: una medición se consideraría correcta cuando diera como resultado proporciones enteras, pues así lo requería la teoría atómica.

Aceptada esta norma, Berzelius repitió durante años sus experimentos, ajustando y corrigiendo sus técnicas experimentales hasta que sus resultados estaban en concordancia con la teoría. Berzelius era un perfeccionista, obsesionado por la exactitud.

Así, diseñó todo su instrumental de manera que las pérdidas de sustancias quedaran reducidas al mínimo. Algunos de sus perfeccionamientos todavía se conservan: los filtros de papel se humedecen antes de usarlos para evitar que algunas sustancias disueltas queden retenidas por el filtro; los vasos tienen picos que permiten descargar hasta la última gota de líquido; etc.

La teoría de Dalton, en esencia, es correcta y los métodos de Berzelius lo confirmaron. Ahora bien, el supuesto de partida de Berzelius puede ser discutible, ya que Berzelius se valió de la teoría para corregir los experimentos y esta forma de proceder puede ser peligrosa: un experimentador puede forzar sus mediciones o manipular los datos de manera que confirmen una teoría que puede ser falsa.

En cualquier caso, gracias a Berzelius, la búsqueda de la exactitud y la necesidad de realizar manipulaciones cuidadosas se convirtieron en normas de conducta practicadas por los experimentadores.

Fuente Consultada: Físico-Química Secundaria Escudero-Lauzurica-Pascual-Pastor

 

Nacimiento de la Parapsicologia Telepatia Percepcion Extrasensorial Rhine

Se atribuye a Joseph Banks Rhine (1895-1980)el mérito de haber convertido en temas respetables de investigación científica a la clarividencia y la telepatía, gracias a sus cuidadosos experimentos de percepción extrasensorial (ESP), durante un período de casi medio siglo. Aunque sólo hay unos cuantos especialistas más que consideren demostrado la existencia de la ESP, actualmente se acepta de modo general que el tema, al que Rhine dio el nombre de «parapsicología» merece un estudio científico.

Rhine nació en Pennsylvania, obtuvo su doctorado en la Universidad de Chicago en 1925, realizó un trabajo postdoctoral en Harvard y luego empezó a enseñar psicología en la Universidad de Durham, Carolina del Norte. El eminente psicólogo William McDougall estimuló su interés en la parapsicología.

Rhine anunció los primeros resultados de sus investigaciones sobre ESP en 1934, año en que se le concedió un laboratorio propio de parapsicología. Consiguió atraerse colaboradores serios y ayudas para la investigación.

Entre las instituciones que han contribuido a sus investigaciones sobre la ESP están la Fundación Rockefeller y la Marina de los EE.UU., junto a muchas más. Tras retirarse de la Universidad Duke, Rhine fundó su propia organización sin fines lucrativos, la Fundación para investigar la naturaleza del hombre (Foundation for Research on the Nature of Man), cuyas actividades incluyen el Instituto de Parapsicología y una rama editora.

El primer trabajo de J. B. Rhine consistió en el estudio de la clarividencia mediante registros escritos de la llamada “comunicación con los espíritus” y por medio de tests pasados a médiums. Esperaba poder confirmar la existencia de espíritus incorpóreos.

Los métodos, materiales y terminología utilizados por Rhine, fueron adoptados de modo general en el estudio de la percepción extrasensorial (nombre que él dio a los temas de clarividencia, telepatía y precognición). Por ejemplo, su mazo normal de cartas ESP comprende 25 cartas en total, cinco cartas con cinco dibujos distintos: una estrella, un círculo, un cuadrado, una cruz y unas líneas ondulantes. Incluso recomendó el modo de barajar las cartas: por lo menos cuatro barajaduras invertidas seguidas por un corte con un cuchillo o con una uña.

Tras barajar las cartas el experimentador las coge mientras el «sujeto» anuncia —o conjetura, dirían otros— el dibujo de cada carta (que como es lógico no puede ver). Si la persona tiene la cualidad que Rhine llama psi, acertará más cartas —es decir, nombrará más a menudo el dibujo acertado— de lo que podría esperarse en una persona que conjeturara al azar.

Los experimentos con cartas son lo más conocido del trabajo de Rhine, pero también inició la investigación en la psicocinética, que es la capacidad de influir sobre el movimiento de objetos físicos utilizando la fuerza mental o la simple voluntad. Los experimentos de Rhine, en el campo de la psicocinética, solían consistir en echar los dados y «desear» que salieran ciertos números: actividad no insólita fuera de los círculos científicos. Sus resultados le convencieron de que algunas personas poseen una cierta capacidad psíquica en algunos momentos. Adultos, niños, incluso animales demostraron tener psi, pero falla la capacidad de repetir puntuaciones elevadas mientras alguien les observa.

La labor de Rhine no ha dejado de ser ridiculizada por personas que asocian la ESP con la magia y la adivinanza, aunque la calidad de su trabajo ha convencido a la mayoría de que es un científico íntegro. En vez de admitir la posible existencia de la ESP, los críticos decididos aseguran que los resultados sorprendentes de algunas personas, inexplicables por las simples leyes del azar, pueden explicarse por trucos o por pistas reveladoras que da el experimentador sin querer.

Rhine insiste en que para que aparezca la capacidad psi es imprescindible una fuerte motivación y gran entusiasmo. Habla de casos en que personas animadas a tope acertaron 25 dibujos en una baraja invisible para ellos de 25 cartas. Como sucede con otros fenómenos ocultos, la presencia de personas incrédulas durante el experimento parece reducir la probabilidad de conseguir resultados favorables.

Tampoco es probable que aparezca un psi en sesiones largas y agotadoras, tanto si se trata de nombrar cartas como de controlar el movímiento de los dados. Los críticos aseguran que los resultados notables que consiguió Rhine en los primeros años de sus experimentos, se debieron a una motivación excesiva por parte de sus ayudantes.  Cuando se aplicaron controles más perfectos se dieron menos actuaciones psíquicas sorprendentes.

Tanto Rhine como su esposa Louisa han escrito numerosos libros y artículos sobre la percepción extrasensorial y sus trabajos se aceptan como investigaciones psicológicas  perfectamente legítimas, aunque Rhine ha señalado que esta rama de la psicología es la única en que se exige la adopción de medidas elaboradas para impedir los fraudes durante los experimentos.

Puesto que en los trabajos de Rhine la presencia de psi en una persona (a la que se llama sensitiva en caso afirmativo) se mide siempre en relación a las leyes del azar, las investigaciones sobre psi obligaron a los incrédulos a reflexionar sobre el uso que se hace de la estadística para sacar conclusiones.

Se acusa a Rhine de confundir, con un episodio psíquico, los acontecimientos casuales raros que se dan ocasionalmente —predecidos por la leyes del azar. Sin embargo, su inalterable disposición en este sentido le ha convertido en la primera autoridad en percepción extrasensorial.

Cuando el publico interesado en telepatía, clarividencia, precognición y psicocinetica experimentó el aumento provocado por la llamada «explosión del ocultismo», iniciada a partir de los años sesenta, la labor de Rhrine había señalado ya el tipo de pruebas necesario para demostrar la existencia de tales fenómenos.

Ver: El Lavado de Cerebro

Antecedentes de la Revolucion Cientifica Edad Moderna Primeros Cientificos

Antecedentes de la Revolución Científica

Entre mediados del siglo XVI y finales del XVII, el pensamiento científico europeo experimentó una enorme sacudida. Se cayó en la cuenta de que había un enorme abismo entre los hechos científicos observables y las ideas medievales sobre la naturaleza, basadas en los axiomas de Aristóteles (384-322 a C.) y sus seguidores, Ptolomeo (siglo II d.c.) en cosmología y Galeno (130-200 d.C.) en medicina.

La conmoción intelectual que tuvo lugar fue más poderosa aún debido al absoluto dominio que las ideas de la antigua Grecia ejercían sobre las merites de los sabios europeos. Hacia 1450, cuando Europa empezó a recuperar los conocimientos y el saber del mundo antiguo, la vida intelectual había estado sumida en la barbarie de la Edad de las Tinieblas durante mil años.

En estas circunstancias, el saber recobrado de la antigüedad entusiasmó a los eruditos hasta tal punto que Aristóteles, Ptolomeo y Galeno, entre otros, se convirtieron en sus oráculos indiscutibles. La Iglesia fomentó esta forma de ver las cosas, especialmente en lo relativo al concepto aristotélico del Universo.

Para Aristóteles, la Tierra era plana e inmóvil y ocupaba el centro de un universo perfecto e inmutable, rodeada de ocho esferas cristalinas en las que giraban el Sol, los planetas y las estrellas. Hacia 1500, los filósofos medievales habían añadido dos esferas más, que los ángeles mantenían en movimiento junto con las anteriores. Más allá se abrían las regiones celestiales.

Semejante concepción encajaba perfectamente con la doctrina cristiana: daba importancia capital al hombre, encontraba un lugar para Dios y el cielo, y hacia que los ángeles fueran esenciales para el funcionamiento del Universo. Afortunadamente, no todos los eruditos admitieron esta visión del mundo sin más. A algunos sabios medievales les quedó el suficiente punto de desconfianza como para ofrecer valiosas “pistas” a sus seguidores de los siglos XVI y XVII.

Uno de éstos fue William Haytesbury, de la universidad de Oxford, quien en 1335 definió por primera vez una ley de la aceleración. Tres siglos más tarde, la teoría de Haytesbury fue vital para los trabajos prácticos de Galileo sobre el movimiento y su formulación de la ley de la inercia.

Asimismo existen vínculos evidentes entre la metodología del cardenal alemán Nicolás de Cusa (1401-64), que observó e hizo anotaciones sobre las fases en el crecimiento de las plantas y llevó a cabo el primer experimento científico propiamente dicho, y los meticulosos métodos con los que los científicos del siglo XVII investigaron los fenómenos naturales.

Esta metodología, definida por Francis Bacon, y a la que el filósofo francés René Descartes (1596-1626) dotó de un enfoque matemático, implicaba una minuciosa ordenación del conocimiento. La observación primero y la experimentación después conducían a la deducción de conceptos generales. Experimentos ulteriores confirmaban, a su vez, las deducciones. Las medidas y los resultados se anotaban con la máxima precisión.

A principios del siglo XVII, estos cálculos se expresaban ya en un lenguaje nuevo, más sencillo y preciso. Los signos que designaban las operaciones matemáticas fundamentales —suma, resta, multiplicación y división— se usaban con regularidad, así corno los símbolos para “mayor que” y “menor que”. Las fracciones decimales y los logaritmos facilitaron los cálculos astronómicos, más complejos cada vez. A finales del siglo XVI, el álgebra se había convertido en un medio meramente simbólico.

Algunos años más tarde, en su tratado Géométrie (1637) Descartes demostró que los problemas de geometría podian ser expresados en signos algebraicos y resueltos por medio del cálculo aritmético. Sir Isaac Newton (1642.1727) en Inglaterra y Gottfried Leibniz (1646-1716) en Alemania, inventaron, cada uno por separado, el cálculo, la herramienta matemática más importante del siglo XVII, fundamental para las investigaciones de los astrónomos.

Los grandes avances en el campo de los instrumentos proporcionaron nuevas “herramientas” científicas de primer orden. El microscopio compuesto se inventó en 1590; el telescopio, en 1609; el termómetro, antes de 1611; el barómetro, en 1643; la bomba de aire, en 1650, y el reloj de péndulo, en 1647.

La Revolución Científica

Grandes Científicos Pioneros de la Revolución

Experimento con Lombrices Planarias y Gusanos McConnell James

Experimento con Lombrices
Planarias y Gusanos

James V. McConnell (1925-1990)
Tras haber cautivado la atención de los científicos con sus experimentos con gusanos, James Vernon McConnell aumentó su reputación como profesor inconformista al emprender la edición de una revista que publicaba parodias de artículos científicos junto con informes auténticos sobre las investigaciones en curso.

Algunos consideraban más divertidas las investigaciones serias que los artículos voluntariamente jocosos de la revista de McConnell, a la que puso de nombre The Worm Runner’s Digest (Resúmenes del corredor de gusanos).

Los descubrimientos de McConnell sobre la naturaleza de la memoria los realizó en la Universidad de Michigan, donde ingresó en la facultad de psicología en 1956. Otros psicólogos experimentales hacían pasar ratones por laberintos para estudiar el modo de aprender y recordar de los animales, pero McConnell prefirió hacer «correr» una especie de lombriz llamada Planaria.

Las planarias pueden multiplicarse por escisión; es decir, que si corta en dos un gusano, la parte anterior sobrevive y regenera una nueva cola. Por su parte, la porción posterior sobrevive también y regenera una nueva cabeza, incluyendo el órgano que actúa de cerebro.

La especialidad de McConnell, en toda una serie de notables experimentos, consistió en cortar planarias. Anunció primero que estos gusanos sencillos eran capaces de aprender un reflejo condicionado, lo mismo que los perros en el experimento de Pavlov. Se ponía a un gusano sano en presencia de una fuerte iluminación seguida inmediatamente por una sacudida eléctrica. La sacudida obligaba al gusano a retorcerse.

Tras un número suficiente de tratamientos con luz y sacudidas, la mayoría de los gusanos se contraían, se levantaban o reaccionaban de cualquier modo con la simple exposición a la luz, sin sacudida consiguiente. Según la evaluación psicológica, cuanto más listo era el gusano menos intentos precisaba para dar la respuesta condicionada cada vez que tenía lugar el estímulo correcto: la luz brillante. El número de sacudidas necesarias para conseguir la respuesta a la luz sin sacudida medía el conocimiento que los gusanos tenían del significado de la luz.

Una planada completamente inocente necesitaba pasar por muchas sacudidas para aprender a retorcerse con la luz sola. Un gusano entrenado anteriormente necesitaba sólo unos intentos; McConnell decía que la memoria volvía rápidamente. Algunos gusanos nunca se acostumbraron.

Luego el Dr. McConnell aseguró que si cortaban algunos gusanos entrenados y éstos regeneraban nuevos cuerpos, los gusanos «nuevos” recordaban su entrenamiento y aprendían rápidamente a retorcerse ante una luz brillante. Esto parecía comprensible cuando se trataba de gusanos cuyos extremos capitales habían tomado parte en el entrenamiento con sacudidas, porque si existía algún tipo de memoria tenía que residir en la parte con más cerebro del gusano. Pero los nuevos gusanos —aquellos que únicamente tuvieron presentes s partes posteriores en el primer programa de entrenamiento— presentaban también las mismas memorias: ¿dónde estaba, pues, la sede la memoria?

McConnell cortó de nuevo los gusanos y dejó que las parle que no habían sufrido un entrenamiento condicionador regeneraran los extremos que faltaban. Se descubrió entonces que la nueva o cosecha de gusanos estaba ya condicionada a la luz brillante, aunque ninguna parte de su cuerpo había sufrido ningún «entrenamiento”. Esto podía ser una prueba en favor de la herencia de un comportamiento aprendido, lo cual era del todo contrario a la biología respetable de los EE.UU., y además tenía implicaciones políticas, porque los biólogos rusos habían sostenido antes que este aprendizaje heredado era posible.

McConnell continuó adelante —quizás demasiado adelante Las planarias son caníbales: cortó a trozos algunos de los ejemplares «entrenados» y les dio a comer a un grupo inocente de gusanos que no habían sufrido nunca la serie de condicionamientos luz-sacudida. Tras este banquete, los gusanos no entrenados perdieron la inocencia.

El profesor McConnell informó que reaccionaban a la luz como si hubiesen recibido el condicionamiento habitual, retorciéndose ante la luz en espera de una sacudida eléctrica. Esta fue su conclusión: las planarias habían ingerido una memoria o una respuesta condicionada al comerse a sus hermanas mejor educadas.

Entre 1962 y 1969, unas cuantas revistas científicas y revistas de gran público dieron muestras de dificultades para tragar esta conclusión. Otros experimentadores empezaron a informar luego que no habían conseguido confirmar los resultados de McConnell, con lo que se iniciaron ajetreados experimentos con gusanos.

El Worm Runner’s Digest de McConnell atrajo tantas colaboraciones humorísticas que pudo publicar dos libros sobre ellas: The Worm Re-Turns (El gusano regresa) (1965) y Science, Sex and Saccred Cous (Ciencia, sexo y vacas sagradas) (1971). Ha publicado  libros de texto sobre psicología social y psicología general, pero su fama se debe a que no cree que sea necesaria la solemnidad para ser serio. McConnell nació en Oklahoma, fue a la universidad en Louisiana y Texas y vivió en  Arbor, Michigan.

Los experimentos con gusanos demostraron que no se tiene todavía una comprensión adecuada de los procesos de aprendizaje y memoria, en función de los hechos precisos, químicos y psicológicos, que tienen lugar en ellos.

La propuesta modesta de McConnell de que el traspaso de memoria podía darse mediante el canibalismo, fue recibida, sin embargo, con desprecio, y los experimentadores propusieron rápidamente otras explicaciones para la conducta de los gusanos. Pero si se tiene en cuenta la naturaleza de la cuestión, la controversia en realidad no hizo nunca furor, chisporroteó un cierto tiempo y luego se calmó en una mezcla de risas y sutilezas estadísticas.

Efectos de la Contaminacion del aire y del suelo Planeta Tierra

Efectos de la Contaminación del Aire y del Suelo

DESASTRES NATURALES EFECTOS LCONTAMINACION AMBIENTAL LA CONTAMINACION AMBIENTAL
Los Desastres Naturales Los Recursos Naturales Desafíos Para El Siglo XXI

EL PLANETA TIERRA EN PELIGRO:

La atmósfera rodea a la biosfera aislándola en el espacio. La constituyen una mezcla de gases: nitrógeno (N) en un 78%, oxígeno (O) en un 21%, dióxido de carbono (CO2) en un 0,03% ó 0,04%, gases raros (argón, ozono, kriptón,
helio) en un 1% y otros cuerpos como las impurezas, productos de la vida sobre la superficie de la Tierra. Veamos de qué modo atentamos contra ella.

Ventajas para la vida
La atmósfera favorece la vida del hombre, proporcionándole la cantidad de aire que necesita para vivir; asegurando el normal funcionamiento del organismo; y por último, filtrando las radiaciones del Sol, que si llegaran a la Tierra imposibilitarían la vida. Sin embargo, pese a que la atmósfera es tan generosa, nosotros no siempre respondemos del mismo modo y así alteramos su composición. ? Por qué sucede esto? En algunos, por enrarecimiento, que se produce por disminución de la cantidad de oxígeno en ambientes cerrados, llenos de gente, y poco ventilados, con acumulación de partículas de polvo y microorganismos. Igual, la atmósfera se purifica naturalmente con el agua de lluvia, los vientos, la acción del Sol y la renovación del aire.

Alteraciones del aire
Una de ellas se produce por efectos de la contaminación, que es la incorporación a la atmósfera de sustancias capaces de alterar el ecosistema y las características de la vida humana. En la contaminación de la atmósfera intervienen:

• El CO2 (dióxido de carbono), que es producto de combustiones industriales. Su acumulación produce aumento de la temperatura terrestre, con destrucción del equilibrio ecológico.

• El CO (monóxido de carbono), que es producto de combustiones incompletas (gases de los motores de vehículos y de industrias).

• El SO, (dióxido de sulfuro), producto de combustiones de azufre (domésticas o fabriles); su acumulación afecta al aparato respiratorio, a las plantaciones, etc.

• Óxidos de nitrógeno provenientes de combustiones de motores de aviones, incendios de bosques, que afectan las vías respiratorias.

• Radiaciones provocadas por la producción de energía atómica. Estas radiaciones pueden provocar en organismos tumores malignos y alteraciones en los genes cromosómicos.

• El smog, que es la “ocupación” de la atmósfera por contaminantes, producto de la actividad industrial mal controlada por el hombre. Este no sólo puede enfermar, sino llevar a la muerte.

Durante muchísimo tiempo los hombres poco hicieron para conservar los recursos naturales del planeta. Los bosques fueron devastados, a muchos ríos se los convirtió en canales sin vida. El agua, el suelo y el aire pasaron a acarrear desechos industriales o domésticos y fueron contaminados. Muchas especies animales y vegetales fueron cruelmente reducidas y otras están en peligro de extinción…

Los mares amenazados
El terrible deterioro de los mares —uno de los más importantes ecosistemas del planeta— causado por los puertos, los diques, las descargas domésticas e industriales de desechos, los dragados, la depredación de la flora y la fauna, la explotación, extracción y transporte de petróleo crudo, constituyen una grave y continua amenaza.

¿Qué es el efecto invernadero ?
Los gases producidos por la combustión de energía fósil (petróleo crudo, gas y carbón), las emisiones provocadas por la actividad industrial, la deforestación (sobre todo en zonas tropicales), los basurales, entre otros, provocan el aumento de la temperatura promedio de la Tierra —fenómeno conocido como calentamiento global o efecto invernadero— debido a que obstruyen el pasaje de la radiación térmica de la superficie terrestre, elevando peligrosamente la temperatura en las capas bajas de la atmósfera. Por este motivo podría cambiar el clima del planeta en los próximos años.

Si no se reducen definitivamente estas emisiones (a fin de evitar el efecto invernadero) la superficie de la Tierra habrá aumentado su temperatura en ¡nada más ni nada menos que 50 °C! Además los océanos acrecentarán su nivel, morirán los bosques subtropicales y boreales, se degradará el agua potable y las sequías e inundaciones azotarán a la población mundial.

El famoso “agujero” de ozono
En la atmósfera hay una capa de ozono (oxígeno triatómico) que rodea a la Tierra y protege a los seres vivos de los rayos ultravioletas del sol. La reducción de esta capa provoca grandes daños sobre la piel humana, la agricultura y los ecosistemas. Los principales agentes de esa reducción se considera que son los compuestos de cloro, flúor y bromo, en especial los clorofluorocarbonos (CFCs) que se utilizan en aerosoles y acondicionadores de aire. A esa reducción de la capa de ozono se lo conoce como “agujero”, otra amenaza para nuestro planeta.

La temible “lluvia acida”
Constituye una de las amenazas ecológicas provocadas por el hombre, más grave para el planeta. Es causada por la combustión del carbón mineral, y del petróleo y sus derivados, que producen polucionantes (contaminantes) que, en contacto con el vapor de agua de la atmósfera y a través de reacciones químicas, pueden generar peligrosas sustancias acidas, dando origen así a la llamada lluvia acida.

Avanza la desertificación
Más de una tercera parte de las tierras del planeta se ven amenazadas por la desertificación (transformación de los terrenos fértiles en desiertos). Este proceso puede ser natural (climático) o causado por el hombre que —sin pensar en las, consecuencias— realiza un mal manejo de las tareas agrícolas, ganaderas, mineras y forestales explotando sin piedad los recursos naturales del suelo y del subsuelo.

 Se vienen grandes deshielos!

Unido al efecto invernadero, se comprobó la elevación de 0.18 °C en la temperatura promedio mundial, desde comienzos del siglo hasta ahora, con mayores olas de calor verificadas en la década del 80. Un último elemento surgió cuando los científicos de la NASA compararon las fotos obtenidas por el satélite meteorológico Nimbus en un período de 15 años. Ellos descubrieron que el perímetro de mar de hielo alrededor de los polos está disminuyendo.

El aire más caliente provoca mayor evaporación del agua del mar, un volumen mayor de nubes y el consecuente aumento de las lluvias, y altera el régimen de los vientos. El resultado sería lluvias más intensas en áreas hoy desérticas, como el norte de África y el NE de Brasil; en regiones hoy fértiles, como el medio oeste de los EE.UU., se presentaría falta de agua; y la disminución del hielo polar aumentaría el nivel del mar, inundando islas y áreas costeras. En una pronóstico más drástico y nefasto, Holanda, Bangladesh, Miami, Río de Janeiro y parte de New York desaparecerían del mapa.

¿Qué es la basura tóxica?
Se llama así a la acumulación de desechos domésticos e industriales no biodegradables y de residuos de combustible nuclear (basura atómica). Sobre el suelo, en el subsuelo, en la atmósfera y en las aguas continentales y marítimas desprende sustancias tóxicas, no asimiladas por la naturaleza, y provoca daños al medio ambiente y enfermedades a los seres humanos.

Las sustancias no biodegradables están presentes en plásticos, productos de limpieza, tintes y disolventes, en insecticidas y productos electroeléctricos, y en la radiactividad desprendida por el uranio y otros metales atómicos, como el cesio, utilizados en usinas, armas nucleares y equipamientos médicos. Lamentablemente basura tóxica se halla no sólo en los países desarrollados, donde el uso de los productos desechables es común, sino también en las regiones de vías de desarrollo, que no disponen de tecnologías adecuadas al tratamiento de esos peligrosos residuos químicos.

Muchos de los productos desechables, entre ellos los plásticos, permanecen casi indefinidamente contaminando el medio ambiente. Por ejemplo, los pañales descartables tardan medio siglo para descomponerse. Los mares, océanos y manglares han servido como depósitos para esos residuos a lo largo del tiempo. El Mediterráneo es, históricamente, la región más afectada.

¡Residuo atómico!
El residuo atómico consiste en basura venenosa formada por sustancias radiactivas (yodo, cesio, uranio, plutonio, entre otras) que resulta del propio funcionamiento de los reactores nucleares. En la actualidad, existen 418 usinas nucleares en funcionamiento, 85 en construcción y 17 en etapa de proyecto. La mayor parte de ellas está situada en los países del este europeo. En Rusia hay amenaza radiactiva en casi todas las partes.

En el litoral de la repúblicas bálticas, se puede decir que el agua es inflamable, pues en el fondo del mar reposa la chatarra de submarinos nucleares. Desde 1983 los desechos en el mar y en la atmósfera están prohibidos. Pero hasta hoy no se encontró un lugar seguro para almacenar esas sustancias tóxicas, que continúan radiactivas durante miles de años, provocando daños al medio ambiente y enfermedades en los seres humanos (como cáncer y alteraciones genéticas).

La alternativa más segura, recomendada por los científicos, es la colocación de esos desperdicios en tambores o recipientes impermeables de concreto, a prueba de radiación y enterrados en el subsuelo en terrenos estables.

ALGO MAS…

Una forma de contaminación minos conocida es la que provocan los ruidos. Este fenómeno es particularmente intenso en las grandes ciudades. Para controlar la intensidad de ruido se ha introducido el decibelimetro (del inglés bell, campana). Téngase, en cuenta que el límite inferior ce oído humano se sitúa en torno a los 10 db y que los sonidos por encima de los 90 db pueden provocar daños en el oído, mientras que por encima de 120 db provoca dolor. El ruido que molesta a las personas proviene en gran parte de las fábricas, los martillos neumáticos, los aeropuertos y ¿ tráfico de vehículos, especialmente en algunas horas del día y en zonas de intensa circulación.

Un grave peligro para el hombre para el medio ambiente lo supone e aumento de la radiactividad de la atmósfera, que puede tener consecuencias gravísimas sobre los huesos, la sangre y sobre todo los caracteres genéticos. Los mismos efectos se producen en la vida acuática. Un primer problema está relacionado con la posibilidad de que se produzca un escape de sustancias radiactivas contenidas en el reactor de la central nuclear.

Otro problema está relacionadc con el vertido de los residuos radiactivos (escorias). El combustible agotado, que se repone periódicamente, continúa siendo peligroso durante muchísimo tiempo (miles de años  es por tanto necesario depositarlo en lugares seguros, protegido de todos los daños posibles.

Por desgracia, la. escorias radiactivas a menudo se descargan en el fondo de los océanos. Mientras los contenedores continúan herméticamente cerrados, no despiertan preocupaciones; a veces no obstante, los contenedores tienen pérdidas y, gracias a las corrientes marinas, pueden subir a la superficie causando enormes daños a las comunidades acuáticas.

Los animales más sensibles a la radiactividad son los cordados; les siguen los crustáceos, los moluscos y los protozoos En fechas relativamente recientes, el problema de las pérdidas radiactivas salió a la palestra a causa de los graves incidentes acaecidos en las centrales atómicas (como la tristemente conocida de Chernobil). (Fuente Consultada: Enciclopedia Temática ESPASA)

La prevision de desastres naturales Informes Metereologicos Controles

La Prevision de Desastres Naturales Informes Metereológicos

El 15 de octubre de 1987, los boletines meteorológicos de la televisión británica pronosticaron vientos fuertes, pero nada más. El lector de noticias de la cadena BBC, al comentar el informe de un televidente sobre un huracán que se avecinaba, dijo;“No se preocupen, es una falsa alarma.”

Esa noche, bautizada más tarde como Viernes Negro, el sur de Inglaterra fue azotado por la tormenta del siglo. Vientos de hasta 185 Km/h derribaron 15 millones de árboles y provocaron 19 muertes, así como pérdidas materiales por valor de 1.000 millones de libras esterlinas. La protesta pública no se hizo esperar: ¿por qué no se advirtió a tiempo de lo que iba a ocurrir?

La respuesta llana fue que los encargados del boletín se equivocaron. A pesar de los avances tecnológicos, el pronóstico del tiempo es una ciencia incierta, y siempre lo será.

Evolución de una ciencia difícil: El arte de predecir el tiempo comenzó en 1643, cuando el físico italiano Evangelista Torricelli inventó el barómetro. Con este instrumento pronto pudo saberse que el aumento o la disminución en la presión del aire correspondía a cambios climáticos, y que con frecuencia una baja anunciaba tormenta.

Pero sólo con la invención del telégrafo en la década de 1840 fue posible reunir informes de estaciones meteorológicas dispersas y hacer predicciones con relativa precisión. A principios de este siglo la radio dio pauta a otro avance. y en la década de 1 960, los adelantos de la informática hicieron pensar que la meteorología podría al fin predecir el tiempo con semanas de anticipación.

El volumen de información de que disponen hoy los pronosticadores es asombroso. LaOrganización Meteorológica Mundial recibe informes de 9 000 estaciones terrenas y de 7500 barcos. En las estaciones se realizan varias mediciones al día bajo condiciones normales (por ejemplo, la velocidad del viento se mide a 10 m del suelo).

Además, globos meteorológicos lanzados desde 950 estaciones alrededor del mundo inspeccionan la atmósfera a una altura de hasta 30 Km. Unas 600 aeronaves informan diariamente sobre las condiciones climáticas en los océanos, y siete satélites exploran el planeta desde una altura de 80 Km.

Desde todos esos puntos se reúne una enorme cantidad de datos, como la velocidad y dirección del viento, la temperatura, nubosidad, precipitación, humedad y presión atmosférica. Cada día las observaciones producen 80 millones de dígitos binarios de información de computadora —que equivale al texto de varios miles de libros—, la cual se introduce en una red de 1 7 estaciones alrededor del planeta que conforman el Sistema Mundial de Telecomunicaciones. Dos de esas estaciones —el Centro Meteorológico Nacional de Estados Unidos y la Oficina Meteorológica británica— boletinan para la aviación civil. Ambas realizan las mismas operaciones como medida precautoria en caso de que alguna falle. Unas computadoras capaces de efectuar hasta 3500 millones de cálculos por segundo procesan los datos para hacer las predicciones.

Prever las condiciones meteorológicas es fundamental para la vida en el Occidente industrializado. En el control del tránsito aéreo, por ejemplo, los pronósticos que permiten a los aviones eludir los vientos de cola o reprogramar los aterrizajes para evitar & mal tiempo, ahorran unos 80 millones de dólares en combustible al año. Industrias como la de la construcción, el transporte marítimo y la agricultura dependen en gran medida de los pronósticos del tiempo por hora y por día.

Los fenómenos meteorológicos que ponen en jaque a los pronosticadores son los ciclones —enormes tormentas que se originan en los mares tropicales—. Los que se desplazan hacía el oeste a través del Atlántico se llaman huracanes, y los que recorren el Pacífico, tifones. Los ciclones se forman en el ecuador y pierden fuerza a medida que tocan tierra. Los huracanes suelen durar una semana, y son impulsados por el aire húmedo y caliente del mar tropical. Conforme va aumentando en el ojo de la tormenta, la humedad del aire se con-densa en forma de nubes, liberando calor y absorbiendo más aire húmedo. Durante la temporada de ciclones más de 100 tormentas se forman frente a las costas de África, de las cuales seis se transforman en huracanes.

Cuando se detectan los nubarrones en espiral característicos de una tormenta tropical, por lo regular por satélite, una estación meteorológica situada en Miami, Estados Unidos, entra en acción: el personal analiza los datos procedentes de satélites, sistemas de radar, boyas automatizadas y aeronaves para predecir el curso del huracán —en particular dónde se desatará—.

A principios de septiembre de 1988, una zona de baja presión comenzó a cobrar fuerza frente a las costas de África hasta que el sábado 10 de ese mes se convirtió en un huracán más tarde llamado Gilberto. Dos días después, Gilberto azotó Jamaica con fuerza devastadora, dejando sin hogar a la quinta parte de los 2.5 millones de habitantes de la isla y destruyendo muchas cosechas.

Después, al alejarse de la devastada isla, Gilberto casi duplicó su fuerza creando rachas de viento de hasta 280 km/h —la peor tormenta que ha azotado nuestro hemisferio en este siglo—. El huracán, cuyo curso se predijo con mucha precisión, llegó a la península de Yucatán el miércoles al amanecer, dejando un saldo de 30 000 damnificados. Pudo haber sido peor: en 1979, el huracán David causó 1100 muertes, y el Flora mató a 7200 personas en 1963. El número relativamente bajo de muertes provocadas por Gilberto, unas 300 personas, se debió a la oportunidad con que se emitieron los boletines.

Pero los pronosticadores no sabían con certeza qué ocurriría después. Cuando Gilberto viró al norte, se puso sobre aviso a las costas de Texas, LuisiAna y Mississippi. Alarmada, la gente vació los supermercados, y 100.000 personas atiborraron las carreteras tratando de huir tierra adentro, dejando tras de sí sus hogares. Pero las precauciones resultaron innecesarias: Gilberto se disipó al alcanzar el litoral estadounidense.

El inesperado final de Gilberto pone de relieve el principal problema de los pronósticos meteorológicos: su falta de absoluta certidumbre. Los fenómenos meteorológicos son en buena medida imprevisibles. Las imágenes usadas para representar factores variables como la velocidad del viento o la temperatura ambiental son válidas tan sólo por un momento; al segundo siguiente se vuelven aproximativas. Por pequeñas que lleguen a ser las desviaciones respecto a los valores verdaderos, predicción y realidad pronto se separan.

Los científicos aceptan que hasta los cambios climáticos leves pueden tener graves consecuencias, Ellos se refieren en broma a ese hecho como el “efecto mariposa”: la idea de que una mariposa que agite sus alas en Pekín, por ejemplo, puede causar una tormenta en Nueva York. Así que el limite actual de vigencia de un pronóstico es de pocos días.

La experiencia diaria de un pronosticador suele ser mejor guía que cualquier modelo de computadora. Por ejemplo, si una masa de aire se desplaza desde el frío Mar del Norte hacia los países europeos adyacentes, puede formar nubes que provoquen lluvias tierra adentro al día siguiente o bien que se disipen al calor del sol; el resultado dependerá de una diferencia de temperatura de sólo unas décimas de grado, pero los efectos pueden ser muy contrastantes: un día frío y nublado o uno caluroso y soleado.

Aun con las mejores computadoras y una información más depurada, parece poco probable que se realicen pronósticos meteorológicos precisos con más de dos semanas de anticipación.

Los pronósticos de mediano alcance han mejorado con las innovaciones téc­nicas. Por ejemplo, las predicciones para tres días que se efectúan en muchos países son hoy tan precisas como las que se realizaban para un día hace un decenio. Pero, por otro lado, los pronós­ticos de largo alcance (para más de 10 días) aún no son confiables.

No obstante, hay esperanzas. Los científicos creen que hay una relación entre los cambios de temperatura del mar y ciertas condiciones atmosféricas. Por ejemplo, cada tres a siete años una corriente llamada El Niño recorre la costa occidental de Sudamérica. Además de ejercer una importante influencia en el clima, la fauna, la flora y la industria locales, El Niño provoca inviernos más benignos o más rigurosos en Estados Unidos. Nadie sabe aún por qué, pero quizá algún día puedan predecirse los efectos de ese fenómeno.

VULNERABILIDAD, …SOMOS TODOS IGUALES FRENTE A UN DESASTRE?
Es sabido que una catástrofe natural o tecnológica afecta con mayor fuerza a los sectores sociales que se encuentran en situaciones de fuerte vulnerabilidad, la que no les permite recuperarse, sobrevivir o resistir a los efectos de tales fenómenos. Entre estos grupos se pueden citar aquellos de escasos recursos económicos, que viven en zonas de riesgo natural o tecnológico, oque carecen de infraestructura y servicios básicos (agua potable, desagües pluviales, desagües cloacales).

Una mujer sola al frente de un hogar constituye un factor que potencia la vulnerabilidad. Por un lado, por una causa de orden económico, las mujeres, en especial las de sectores de bajos ingresos, generalmente perciben menores salarios que los hombres por igual trabajo, lo cual las coloca en una posición relativamente desventajosa para enfrentar las consecuencias de un desastre. Por otro lado, por una causa cultural, las mujeres de comunidades vulnerables tienen escasas probabilidades de actuar en la organización de la emergencia, ya que su participación en las decisiones es restringida.

Asimismo, muchos estudios señalan que, una vez ocurrido el desastre, las mujeres son mucho más susceptibles de caer en situaciones de estrés ante las pérdidas. También es frecuente la violencia ejercida sobre las mujeres, como “válvula de escape” de la impotencia o frustración de los hombres que pierden sus empleos o su estatus económico y social después de un desastre.

Una alternativa válida para mejorar las condiciones de vulnerabilidad en una sociedad ante determinadas amenazas, es incorporar a las mujeres a la gestión del riesgo. Esto implica la aplicación de un enfoque que plantee esquemas de manejo de los desastres en todos los momentos del desastre, con papeles claramente establecidos para hombres y mujeres.

Así, las mujeres quedan plenamente integradas, aprovechando al máximo sus capacidades para convertirse en efectivas agentes en la mitigación de las consecuencias de los desastres. Esta participación, no significa recargar con nuevas tareas y nuevas responsabilidades a las mujeres, sino lograr que ocupen un espacio real en los procesos de gestión del riesgo.

Fuente Consultada:
Geografía La Organización del Espacio Mundial  Serie Libros Con Libros Estrada Polimodal
Maravillas del Mundo de Luis Azlún
Días negros Para La Humanidad Paz Valdés Lira
La Historia de las Cosas Annie Leonard

Medidas de Prevencion Para Desastres Naturales

Medidas de Prevención Para Desastres Naturales


LA CULTURA DE LA PREVENCIÓN

En realidad, impedir que estos fenómenos extremos de la naturaleza ocurran es imposible, por eso las sociedades deben crear recursos e instrumentos para limitar sus efectos. Es necesario crear una cultura de la prevención, donde la tarea de los medios de comunicación y los docentes son piezas fundamentales, ya que actúan como multiplicadores de la información; esto es, son comunicadores sociales. Teniendo en cuenta lo anterior, el 90% de las defunciones provocadas por los movimientos sísmicos podrían evitarse. Sin embargo, alrededor de la mitad de los países más vulnerables a los desastres no cuenta con una planificación adecuada para enfrentarlos.

Ahora bien, ni la planificación, ni su aplicación o su resultado es igual en todos los espacios geográficos del mundo, porque dependen de factores políticos, culturales y, sobre todo, del nivel de desarrollo socio-económico del país. De esta manera, no produce el mismo tipo de daño un sismo, huracán o tornado en Estados Unidos que en Bangladesh o la India. Con respecto a las pérdidas económicas, son de mayor volumen en Estados Unidos pues las autopistas, viviendas, etcétera, tienen mayor valor. Pero el número de víctimas fatales es mayor en los países en desarrollo por su escasa infraestructura para proteger a la población y sus bienes.

En este sentido, prevenir los riesgos es crucial y, aunque requiera un costo más elevado en el presupuesto de planificación, este resulta ínfimo frente a los daños y gastos ocasionados si no se llevan a cabo. Por eso, aunque la prevención debería insumir los mayores esfuerzos físicos y monetarios, no es así en casi todos los países del mundo, ya que el presupuesto más elevado está destinado a la reconstrucción.

En la década de 1950, en 11 tifones e inundaciones importantes fallecieron alrededor de 13.000 personas y más de un millón de hogares resultaron destruidos o anegados. En cambio, cuando en junio de 1964, Nigata, en Japón, sufrió el mayor terremoto ocurrido en 40 años, aunque fueron afectadas más de 150.000 personas y la mitad de la ciudad quedó inundada, sólo 11 personas resultaron muertas y unas 120 heridas. Esto se debió a que la respuesta de la comunidad ante el desastre fue eficaz, porque Japón había implementado planes de información pública sobre las acciones a seguir ante la presencia de un desastre natural.

El ejemplo anterior deja claro que la planificación debe tener en cuenta todas las actividades de prevención y mitigación de un desastre, e incluir a todos los actores sociales: economistas, sociólogos, políticos, geólogos, meteorólogos, asociaciones gubernamentales y no gubernamentales, etcétera.

Los principales aspectos a tener en cuenta son:

• investigación del fenómeno para evaluar su intensidad y frecuencia con el fin de confeccionar y difundir el mapa con las zonas de riesgos. De esta manera, todos los que habitan dicho espacio tuviesen conocimiento de los peligros a los que están expuestos y cómo deben actuar en caso de catástrofes;

• aplicación del conocimiento científico y la tecnología para la prevención de los desastres y su mitigación. Incluyendo la transferencia de experiencias y un mayor acceso a los datos relevantes (por ejemplo, el seguimiento satelital que se hace de la falla de San Andrés, en California);

• toma de medidas preventivas (normas de seguridad para el asentamiento de la población, edificaciones de baja altura que resistan ciclones y huracanes o movimientos sísmicos de magnitud). Las nuevas construcciones en las zonas sísmicas se realizan con técnicas sismorresistentes, sus cimientos están apoyados en materiales aislantes de las vibraciones del suelo;

• previsión de los riesgos secundarios; por ejemplo, inundaciones causadas por la fractura de un embalse como consecuencia de un sismo;

• los medios de comunicación son muy importantes tanto para el alerta (sirenas, luces, etcétera.) como para la difusión (radio, televisión, Internet) de la información para organizar a la comunidad en el momento o reorganizarla después del desastre. Los sistemas de alarma instalados en los países caribeños han reducido el número de víctimas durante la estación de los huracanes.

¿Es posible manejar las amenazas?
Aunque el hombre no puede evitar —al menos por ahora— la ocurrencia de sismos, erupciones volcánicas o huracanes, los avances en la ciencia y la técnica han permitido conocer su funcionamiento y determinar en mayor o menor medida la probabilidad de su ocurrencia. Así gracias a redes de vigilancia y monitoreo (que incluyen aparatos sofisticados como sismógrafos e incluso satélites para el seguimiento de tormentas y huracanes) es posible pronosticar o detectar algunos fenómenos y así determinar estados de alerta tempranos para la protección o evacuación de la población.

En el caso de las inundaciones, es posible evitar su ocurrencia mediante obras de ingeniería, como la construcción de presas y canales. Gracias a la ingeniería geotécnica, se pueden realizar obras de estabilización de pendientes, a fin de evitar deslizamientos y desprendimientos rocosos. Salvo en estos casos, en los que sería posible “eliminar” la incidencia de eventos físicos, en general, la única manera de disminuir estos riesgos es reducir la vulnerabilidad de la sociedad.

Situación problemática
Se ha demostrado que un número considerable de tragedias ocurren por descuido o ignorancia. En consecuencia, toda persona está obligada a conocer e identificar las fuentes de peligro y los riesgos ambientales del lugar donde vive. ¿Cuáles son las fuentes de peligro de tu región?

Hipótesis
Las fuentes de peligro de mi región pueden ser por causas geológicas, pueden estar relacionadas con hechos hidrológicos o pueden deberse a la acción humana.

IDEAS FUNDAMENTALES
Si bien la Tierra ha sido lo suficientemente generosa y benigna con el ser humano, también es fuente de diversos peligros que amenazan, quizás, su existencia.

Definimos riesgo como la probabilidad de perjuicio a vidas y bienes en un lugar determinado, en cierto período de tiempo. A su vez, definimos amenaza como la posibilidad de ocurrencia del fenómeno considerado, en un lugar determinado y en cierto período de tiempo.

Se ha precisado que las amenazas tienen tres orígenes:

Origen geológico: como sucede con los fenómenos volcánicos, tectónicos o sísmicos y los movimientos de la Tierra.

Origen hidrometeorológico: evidente en hechos hidrológicos como crecientes, inundaciones y sequías; fluviales como la erosión o los cambios de cauce de los ríos; meteorológicos como huracanes, vendavales y las heladas; o de origen marino. Veamos un ejemplo:

Las inundaciones son crecidas de agua en cuencas de alta pendiente producida por la presencia de grandes volúmenes de agua en un relativo corto tiempo. Son frecuentes en ríos de zonas montañosas con una amplia pendiente, que desencadenan los siguientes procesos:

Derrumbes: ocasionados por las fuertes precipitaciones sobre terrenos débiles o deforestados que ablandados y removidos se deslizan sobre la orilla de ríos y quebradas.

Represamiento de agua: sucede cuando las rocas, los desechos de vegetación y todo lo que es arrastrado tapona la corriente a manera de dique.

Avalancha: el agua represada rompe el obstáculo y se desborda por el flanco de la montaña arrastrando todo a gran velocidad y con un fuerte poder destructivo.

Origen antropogenético: debidos a la acción del ser humano: explosiones, incendios, explotación inadecuada de recursos naturales como minas, canteras, y deforestación; contaminación del agua, aire, suelo; consumo de sustancias psicoactivas. Veamos un ejemplo:

Incendios: el incendio como catástrofe se presenta cuando de manera incontrolada son consumidos por el fuego varios materiales inflamables, generando cuantiosas pérdidas en vidas, recursos y bienes. Para que se produzca un incendio se requiere de tres elementos: un material combustible, una fuente de calor y el oxígeno; todos éstos conocidos como el triángulo de fuego.

La Lucha Ecologica Para Evitar Desastres Naturales

LA LUCHA ECOLÓGICA PARA EVITAR DESASTRES NATURALES


La lucha ecológica es la lucha por nuestra supervivencia como especie. La Unión Internacional para la Conservación de la Naturaleza y los Recursos Naturales fue uno de los primeros movimientos internacionales que se formó con este fin. Surgió en Francia, en 1948, con el auspicio de la UNESCO.

En el último cuarto de siglo, la cooperación internacional sobre medio ambiente se ha convertido en un tema primordial tanto para las Naciones Unidas, como para los organismos gubernamentales y no gubernamentales. Se han firmado declaraciones, convenios y tratados sobre problemáticas ambientales con resultados dispares, y se han creado organismos internacionales.

Las ONO han desarrollado una importante labor. Entre ellas, se destaca la organización ambientalista más grande del mundo, Greenpeace (Paz y Verdor) fundada en 1971, en Canadá. Se extendió a los cinco continentes y hoy cuenta con más de cuatro millones de socios en el planeta. Tienen presencia en todos los lugares donde se agrede a la naturaleza. Por ejemplo, con sus lanchas neumáticas, muchas veces en arriesgadas acciones, sus miembros se interponen entre las ballenas y los lanza-arpones de los barcos balleneros. También encabezan protestas contra el arrojo de desechos tóxicos a las aguas o a la atmósfera. Además, apoyan la formación de organizaciones locales para este fin.

Algunos movimientos ecologistas se transformaron con los años en partidos políticos. Es el caso del Partido Verde, en la República Federal Alemana, que desde 1980 participa en las elecciones y tiene representantes en el parlamento federal. Desde entonces, ellos son la cabeza visible del ecologismo práctico y de la acción concreta.

El 5 de junio de 1990 se estableció el Día deja Tierra. Durante aquella jornada, cientos de organizaciones ecopacifistas de todo el-globo se pusieron de acuerdo para lanzar un grito desesperado: detener la destrucción del planeta.

En junio de 1992, se celebró la Conferencia de las Naciones Unidas para el Medio Ambiente y el Desarrollo, conocida como Eco ‘92 o la Cumbre de Río (se celebró en Río de Janeiro, Brasil). Fue la reunión más importante de todos los tiempos pues concurrieron representantes de 178 países, de los cuales la mayor parte eran jefes de Estado, y asistieron integrantes de 2.500 ONU.

En la reunión los delegados aprobaron tres documentos:

• la Declaración de Río sobre el Medio Ambiente y el Desarrollo, que es un resumen de principios ecológicos;

• el Programa o Agenda 21, que es un plan integral para dirigir Las acciones nacionales e internacionales ha

• la Declaración de Bosques, que consta de quince principios para la gestión sostenible de los bosques y regula el comercio de la madera, aunque no establece límites para frenar la deforestación.

Además, se firmaron dos tratados internacionales: el Convenio sobre la Diversidad Biológica  y el Convenio sobre el Cambio Climático

Con posterioridad a la Cumbre de Río hubo otras reuniones para seguir avanzando en estos temas, como la Cumbre sobre el Cambio Climático, en 1997, en Kioto (Japón).

A pesar de todo lo que se hizo hasta hoy, este proceso de cambio de actitud frente a la naturaleza recién comienza. Falta recorrer un largo camino, no sólo para que las sociedades tomen conciencia y modifiquen su forma de relacionarse con la naturaleza, sino también porque llevará mucho tiempo recuperarla. El destacado biólogo francés Jacques Cousteau afirmaba que “somos pasajeros sin nacionalidad de una nave llamada Tierra, cuyo futuro está en peligro”.

Vivir en un medio ambiente sano es un derecho humano. La Declaración de la Conferencia de las Naciones Unidas sobre el Medio Humano, reunida en Estocolmo en junio de 1972 expresa la convicción común de que “el hombre tiene el derecho fundamental a la libertad, la igualdad y el disfrute de condiciones de vida adecuadas en un medio de calidad tal que le permita llevar una vida digna y gozar de bienestar, y tiene la solemne obligación de proteger y mejorar el medio para las generaciones presentes y futuras”.

Tecnologías Para Predecir Desastres Naturales Deteccion y Ayuda

Tecnologías Para Predecir Desastres


LAS NUEVAS TECNOLOGÍAS PARA PREDECIR DESASTRES NATURALES:

Para la detección y prevención de los desastres naturales, las sociedades cuentan con la tecnología.

De esta manera, la década de 1990 ha sido declarada en la XII Asamblea General de las Naciones Unidas, como Década Internacional para la reducción de las Desastres Naturales (DIRDN). Así, con la ayuda de las nuevas tecnologías, como la espacial (satélites de teledetección), la de las comunicaciones (telemática) y la de los censores.

Por su parte, gran cantidad de científicos (meteorólogos, vulcanólogos, etcétera) están dedicados a estudiar como se originan y desarrollan estos fenómenos. Su objetivo es tomar las medidas necesarias con el fin de aminorar los efectos de los desastres naturales y educar a la población para afrontarlos y contrarrestarlos en la medida de lo posible.

La contribución de la tecnología en la prevención de los desastres es notable: por un lado, a través de las imágenes satelitales se puede conocer la cartografía de las zonas de riesgo como por ejemplo, de las áreas fácilmente inundables. Incluso, los satélites de percepción remota, que utilizan técnicas fotográficas con rayos infrarrojos, pueden emplearse para detectar modificaciones en la densidad de la vegetación en zonas proclives a las sequías. También hay satélites meteorológicos que permiten la predicción y seguimiento de las tormentas tropicales.

Por otro lado, por medio de satélites, como el GPG —que es controlado por la estación espacial National Aeronautics and Space Administration (NASA)—, se pueden medir los desplazamientos de las placas tectónicas, aunque sean milimétricos, lo que permite advertir sobre una futura actividad sísmica o volcánica.

Asimismo, la NASA ha desarrollado un escáner térmico multiespectral de infrarrojos (TIMS) que opera desde un avión y puede detectar los cambios en la temperatura del magma de los volcanes. Esta información resulta sumamente útil para predecir sus erupciones o seguir la evolución de las nubes eruptivas.

En este sentido, EEUU es considerado uno de los países más adelantados con respecto a la detección de los movimientos sísmicos. Este país cuenta con un sistema de sismógrafos digitales computadorizados que han sido instalados en diferentes puntos del sur del Estado de California, que proporciona información muy precisa sobre temblores percibidos en cualquier parte del planeta. Además, EEUU presta especial atención a este fenómeno en el sudoeste de su territorio debido a la presencia de la falla de San Andrés, que recorre California de norte a sur a lo largo de 1.000 kilómetros. Esta falla marca el límite principal entre las placas del océano Pacífico y la de América del Norte.

La placa del Pacífico se desplaza hacia el noroeste a razón de cinco centímetros por año, por lo que en esta zona de contacto se producen, con relativa frecuencia, pequeños sismos. Sin embargo, algunas veces, la presión se acumula durante años hasta que un gran terremoto la libera. Ejemplo de ello fue el que sacudió la ciudad de San Francisco en 1906.

Actualmente, los sisrnólogos pronostican en esta zona un gran terremoto los próximos veinte años, al que denominan Big One, que podría ocasionar la separación de la zona costera del territorio continental. Varias ciudades, como San Francisco o Los Ángeles, podrían desaparecer bajo los escombros.

En prevención de desastres naturales no sólo se involucran los Estados y sus comunidades científicas, sino también los organismos internacionales como la ONU. Las Naciones Unidas patrocinan redes de computadoras destinadas a la prevención de desastres: Unienet y el Banco de Datos sobre Desastres son dos de los más importantes.

Unienet es una red de computadoras que permite a todas las personas del mundo que se ocupan de desastres mantenerse en contacto. Disponiendo en un instante de antecedentes e información operativa relacionada con ellos. Además, funciona en forma conjunta con los organismos de las Naciones Unidas y otras organizaciones intergubernamentales y no gubernamentales.

El Banco de Datos sobre Desastres contiene más de 5.000 descripciones de desastres desde 1900 hasta la actualidad. Allí figuran la asiduidad con que se presentan, las zonas más afectadas por ellos, etcétera, a fin de crear los mecanismos para su prevención.

LOS DESAFÍOS PARA EL SIGLO XXI

Con frecuencia, los desastres naturales destruye los esfuerzos y las inversiones de muchos años. Por ello, Los desafíos para este siglo son:

• reducir la pérdida de vidas humanas y de bienes económicos mediante La información y la educación de la comunidad mundial acerca de cómo prepararse contra los desastres;

• emprender un esfuerzo mundial concertado para La formulación de programas y estrategias con el fin de reducir el nivel de vulnerabilidad de Las sociedades ante este tipo de desastres, teniendo en cuenta las diferencias culturales y económicas entre las naciones;

• compartir La tecnología entre los países y capacitar a los profesionales de los países en desarrollo para que puedan utilizarla;

• considerar los gastos en la prevención de los desastres como parte del proceso de desarrollo de un país, y tratar especialmente de que los gobiernos de los países más pobres Lo incluyan en sus presupuestos.

ALGO MAS…

En plena temporada de huracanes y con el doloroso recuerdo de los recientes desastres naturales ocurridos en la región, varios países de América Latina y el Caribe están organizando una red nacional de información computarizada para coordinar futuros esfuerzos de ayuda.

La base de datos, denominada Sistema de Información de Emergencia (Emergency Information System – EIS), contiene información y mapas, y fue diseñada por Research Alternatives, Inc., firma establecida en la zona suburbana de Washington, D.C. El sistema mantiene un inventario de hospitales, escuelas, instalaciones de servicios públicos, industrias y zonas residenciales. Funciona de la siguiente manera: si una determinada zona se ve amenazada por inundaciones, en la pantalla de la computadora pueden observase mapas de los distintos distritos, con símbolos que representan los edificios más importantes y otros detalles como el número de estudiantes o de pacientes que podría ser necesario evacuar. Los organismos intervinientes pueden intercambiar por teléfono o por radio la información obtenida de los mapas, coordinando así su acción en casos de emergencia.

No es casualidad que entre los primeros países que instalaron el sistema figuren varios que se vieron afectados por el huracán Gilbert, la catástrofe que en el mes de septiembre de 1988  dejó un saldo de más de 300 muertos y ocasionó daños por 2.000 millones de dólares en once países de la región.

“Después del huracán Gilbert, en algunos casos se necesitaron días y aun semanas solamente para llegar a ciertos lugares y ver qué había ocurrido con la gente”, explica Hugh Cholmondeley, representante de Jamaica en el Programa de las Naciones Unidas para el Desarrollo, que ahora colabora en el EIS. “El sistema manual tradicional para obtener información y coordinar los esfuerzos de rescate simplemente resultaba insuficiente para enfrentar un desastre de esta magnitud”.

La introducción del EIS en los países en desarrollo se encontraba en una etapa experimental cuando la Organización de los Estados Americanos y el gobierno de Jamaica lo pusieron apresuradamente en práctica a los pocos días de que el huracán Gilbert asolara la isla. En el término de seis semanas se introdujeron las terminales del EIS y se adiestró al personal de una docena de ministerios, empresas de servicios públicos y organismos de ayuda. Desde entonces, se ha iniciado la instalación inicial del sistema en Costa Rica y Honduras, víctimas del huracán Joan, ocurrido poco después del Gilbert. Está estudiándose asimismo la instalación del sistema en Ecuador, Perú, Colombia, Barbados y el Caribe oriental, zonas también vulnerables a desastres naturales.

sistema de proteccion y ayuda

“Como el sistema se puso en funcionamiento durante una emergencia verdadera, quienes participaron en las tareas de rescate tuvieron que examinar muy cuidadosamente la forma de utilizarlo. Por eso fue aceptado con tanta rapidez”, sostiene Jan Vermeiren, coordinador de las actividades del Proyecto Desastres Naturales en el Caribe, que inició el EIS.

Se estima que entre 1983 y 1986, los desastres naturales, tales como huracanes, terremotos, Inundaciones y erupciones volcánicas, produjeron daños por un valor de 12.500 millones de dólares en América Latina y el Caribe.

DAVID EINHORN En Américas vol. 41, N° 2, 1989

Desastres Naturales Por Causas Meteorológicas Ciclones Tornados Huracanes

Desastres Naturales Por Causas Meteorológicas

LA METEOROLOGÍA: (del griego meteoros, “que está en lo alto del aire” y logos, “discursos”), es aquella parte de la geofísica que estudia los fenómenos físicos de la troposfera, o sea de aquella parte de la atmósfera que está en contacto directo con la corteza terrestre.

Uno de los elementos de importancia fundamental para las variaciones atmosféricas consiste en el desplazamiento, tanto vertical como horizontal, de grandes masas de aire, en un permanente dinamismo originado por los cambios de temperatura y de humedad (vapor acuoso). Como no todos los puntos de la superficie de la Tierra tienen la misma temperatura, continuamente se forman diferencias de presión, con desplazamientos de masas de aire, más o menos imponentes y veloces, entre las zonas de presión mayor y las de presión menor.

Estos desplazamientos toman el nombre de vientos y obedecen en general a determinadas leyes de formación, que pueden ser estudiadas y conocidas y, por tanto, utilizadas para formular previsiones meteorológicas

DESASTRES POR CAUSAS METEOROLÓGICAS

El comportamiento de la troposfera, bajo ciertas circunstancias, alcanza condiciones extremas. Esto puede materializarse en distintos desastres naturales: inundaciones debido al exceso de precipitaciones, sequías debido a la falta de lluvias de manera irregular (coincidiendo en algunas ocasiones con olas de calor). En otros casos, las olas de frío llegan a causar nevadas extraordinarias, heladas tardías y pérdidas económicas, especialmente en el sector agrícola. Las granizadas, por su parte, forman parte de los desastres por causas meteorológicas.

Todos estos fenómenos impactan de manera considerable sobre la economía de los países, las nevadas bloquean los caminos, principalmente en las zonas montañosas ubicadas a una altura considerable, como los Alpes y los Andes argentino-chilenos, causan la mortandad de animales que mueren de frío y de hambre, al quedar cubiertas las pasturas por la nieve. Esto último afecta sobre todo a los países en desarrollo, ya que no se practica la cría de galpón.

Las inundaciones

Las catástrofes naturales más frecuentes son las inundaciones. Éstas se originan por lluvias torrenciales o por deshielos. Producen una serie deconsecuencias como la perturbación de la economía de la región (sobre todo si es agrícola porque, cuando el agua se retira, arrastra la capa fértil del suelo. Otra consecuencia es la contaminación de los suelos y las napas freáticas, poniendo a la población en riesgo de epidemias.

En 1996, se produjo una de las inundaciones más recordadas por los daños que causó en Florencia (Italia). Debido a lluvias torrenciales el río Arno, que la atraviesa, aumentó su caudal y su velocidad (alrededor de 130 km/h), salió de su cauce e inundó gran parte de Florencia. En esta inundación no sólo hubo que lamentar las personas que quedaron sin techo y otros daños económicos, sino también las pérdidas que sufrió la cultura, pues las aguas y el barro entraron a los museos y dañaron más de un millón de cuadros y otros objetos de arte

Otro desastre meteorológico es el aluvión de barro. Se produce cuando las lluvias se tornan torrenciales y caen en áreas con pendientes pronunciadas, destruyendo todo a su paso. Ello es lo que ocurre en el litoral brasileño, donde los aluviones que descienden de los morros suelen arrasar las villas de emergencia (favelas)

En nuestro país, la inundación de mayo de 1998 fue considerada la mayor catástrofe de este tipo del siglo XX. Afectó a un tercio de las provincias argentinas situadas a orillas de los ríos Paraná y Paraguay. Las ciudades de Resistencia (Chaco) y Goya (Corrientes) fueron las más afectadas. La inundación de 1999 afectó una de las zonas agrícolas más productivas del país, comprendida por el noroeste de Buenos Aires, nordeste de La Pampa y el sur de Córdoba.

Así también, en abril del año 2003 la provincia de Santa Fe se vio sumergida en lo que se denominó crisis hídrica. Esta inundación fue provocada por el desborde del río Salado que afectó de manera rotunda las actividades y provocó perdidas considerables. El riesgo mayor lo padeció la ciudad de Santa Fe que llegó a tener casi el 70% de su área de ocupación inundada. Incluso, en el año 2007, a causa de precipitaciones torrenciales, la ciudad de Santa Fe también se vio expuesta a inundaciones considerables que afectaron nuevamente las actividades y causo perdidas materiales.

Estos fenómenos climáticos deben observarse en el contexto del recalentamiento global, producto de la contaminación del planeta por más de un siglo.

Las sequías

Como primera cuestión, es necesario distinguir aridez de sequía. La aridez es una condición permanente y las sociedades que viven en los desiertos se han adaptado a ella, realizando las obras necesarias para suplir la falta de agua. Por el contrario, la sequía es un fenómeno circunstancial o esporádico que provoca un desastre.

A diferencia de los demás fenómenos naturales, las sequías suelen ser prolongadas y de mayor alcance, por lo que el daño ocasionado a largo plazo es mayor. Las consecuencias alcanzan a todos los aspectos de la vida. Se pueden destacar:

• falta de agua potable, por la disminución del caudal de ríos y arroyos y el agotamiento de las napas freáticas;

• hacinamiento en las ciudades: éxodo rural a causa de la muerte del ganado por sed y hambre por falta de pasturas. Además, el viento provoca la voladura de los suelos arrastrando su capa fértil;

• crisis económica, el ganado adelgaza por falta de pasturas y baja su precio en el mercado. Además, su debilidad lo hace más vulnerable a las epidemias. También se elevan los precios de los alimentos al perderse las cosechas;

• aumenta la frecuencia de incendios, al elevarse la temperatura y la aridez.

Una de las sequías más importante se registró en El Sahel (África) entre 1969 y 1973. Afectó al sur del desierto del Sahara y produjo un aumento de su superficie (en Mauritania, Senegal, Malí, Burquina Faso y Chad). Además, murieron más de 200.000 personas de hambre y la mayor parte de los campesinos tuvieron que emigrar por las pérdidas de las cosechas y la muerte del ganado.

Los tornados y los huracanes

Como se forma un huracán

Se pueden distinguir dos tipos de vientos fuertes: el tomado y el huracán.

Por un lado, los tornados son tormentas que pueden alcanzan una velocidad de hasta 500 km/hora. Se desplazan sobre los continentes entre los 200 y 500 de latitud en ambos hemisferios, formando una veloz corriente ascendente de aproximadamente 250 m de diámetro. Si los mismos se producen sobre las aguas marinas, se llaman trombas y representan un serio peligro para la navegación.

En este sentido, entre los tornados más recientes se destaca el que se produjo en EEUU en mayo de 1999. Consistió en una serie de 59 tornados, que, uno detrás de otro, devastaron inmensas áreas de la planicie central, ocasionando la perdida de viviendas a miles de familias. El tornado más fuerte alcanzó un diámetro de un kilómetro, y una velocidad superior a los 200 km/hora.

Por otro lado, el huracán tiene distintos nombres según la región: se lo llama ciclón tropical en el Caribe, tifón en el Índico y mar de Japón, baguío en Filipinas y willy-willy en Australia.

Los huracanes son violentas perturbaciones que se producen en la troposfera. Se originan por una baja presión atmosférica (de hasta 900 hPa) y giran en forma de espiral alrededor de su centro (ojo del huracán). Por lo general, son acompañados de vientos de hasta 300 km/h, por trombas de agua (hasta 2.000 litros por m2 en un día), embravecimiento del mar y tormentas eléctricas.

Los huracanes se desplazan hacia el oeste, girando luego hacia el norte o hacia el sur cuando penetra en los continentes. Se originan sobre los océanos, entre los 50° y 20° de latitud, cuando la temperatura de las aguas oceánicas es de 270°C o aún mayor. Los vientos que alcanzan velocidades de 200 km/hora rotan en círculos de 500 a 1.800 km. de diámetro, durante varios días o incluso semanas. Hay que considerar que al llegar al continente produce inmensos oleajes que se abaten sobre las costas, provocando efectos destructivos. Si bien la velocidad del viento aminora a medida que llega a tierra firme, las lluvias que se originan pueden causar inundaciones.

Un huracán muy devastador fue el Mitch, en 1998. A su paso por Centroamérica dejó alrededor de 30.000 muertos y desaparecidos, y cuantiosas pérdidas económicas, ya que destruyó viviendas, puentes, caminos y gran parte de las plantaciones de café y plátanos. Hay que considerar también el grado en que estas sociedades se ven afectadas por esta clase de fenómenos. Por lo general en Centroamérica los países son monoproductores (es decir centran su actividad productiva en un sólo producto que es primario).

Cuando estos fenómenos climáticos provocan daños severos se produce lo que a nivel internacional se denomina “catástrofe humanitaria”. Ante ello, los organismos internacionales como la ONU (Organización Mundial de las Naciones Unidas) se movilizan de inmediato, como así también los países vecinos y los desarrollados, para proporcionar ayuda.

Los desastres se presentan con más asiduidad en los países periféricos. De todos modos, los países desarrollados se encuentran siempre involucrados, porque son los responsables de otorgar créditos a los gobiernos damnificados, para que puedan reconstruir la infraestructura mínima para la población y reactivar su aparato productivo.

Ciclones y anticiclones
Ya se ha visto anteriormente que la temperatura disminuye regularmente a medida que se asciende en el espacio. Pero debido a los múltiples y muy variados factores que influyen en la temperatura del aire, suele ocurrir que a una misma altura se registran temperaturas y presiones distintas. Las isóbaras, como ya se ha dicho, son las líneas que unen todos aquellos puntos que en un intervalo de tiempo dado tienen igual presión (media), y son por ello mismo muy distintas no sólo de las isotermas (líneas de igual temperatura), sino también de las curvas de nivel que unen todos los puntos de igual altitud.

De ordinario, suele suceder que las isóbaras tienden a asumir una forma cerrada, determinando así un área o zona, dentro de la cual el valor de las presiones se manifiesta de dos modos muy característicos: presión atmosférica que disminuye hacia el centro de la zona, o presión atmosférica que aumenta.

En el primer caso, el área considerada toma el nombre de zona ciclónica; en el segundo recibe, por el contrario, el nombre de zona anticiclónica. La zona ciclónica es un área sobre la cual la presión atmosférica es máxima en los bordes y mínima en el centro; dicha zona el índice de variaciones meteorológicas más o menos intensas y, en general, es muy inestable, con tendencia a desplazarse incluso con mucha rapidez a zonas distintas de las de formación.

En cambie la zona anticiclónica es un área sobre la cual la presión atmosférica es mínima en los bordes y máxima en el centro; es mucho más estable que la zona ciclónica, desarrolla una influencia más duradera y es indicio de condiciones meteorológicas más fijas.

Cuidadosas mediciones han permitido determinar que las zonas ciclónicas y anticiclónicas están sujetas a un movimiento general en sentido contrario a los dos hemisferios. En eL hemisferio boreal, las masas de aire de los ciclones se desplazan desde la periferia hacia el centro en sentido contrario al de las agujas del reloj, llamado también antihorario, mientras que las masas de aire de los anticiclones se desplazar. desde el centro hacia la periferia en sentido horario.

Estos movimientos, con sus respectivos .sentidos de rotación resultan evidentemente influidos por el movimiento rotatorio de la Tierra que gira alrededor de su eje de Oeste a Este; lo mismo ocurre con las corrientes marinas, en las cuales las masas de agua en movimiento se desplazar, también en sentido contrario en los dos hemisferios.

Fuerzas del Interior de la Tierra Tsunamis y Terremotos

LAS FUERZAS DEL INTERIOR DE LA TIERRA

Desde la antigüedad, el hombre ha considerado que los movimientos sísmicos y el vulcanismo se encuentran entre los fenómenos naturales más temibles para su vida y sus bienes. Esto se debe a la rapidez de su aparición y a la violencia de las sacudidas que, en segundos, transforman una ciudad en un cúmulo de ruinas.

Se originan por el desplazamiento de las placas de la corteza terrestre, que en sus movimientos de reacomodamiento liberan energía. Esta se transmite por medio de ondas que llegan a la superficie provocando la actividad sísmica u originando manifestaciones volcánicas. Por ello estos proceso se presentan en las zonas de contacto entre las placas.

A fin de perfeccionar la protección antisísmica en el mundo se deben instalar más estaciones sismológicas. También resulta útil la preparación de un mapa de zonas de mayor frecuencia de sismos para poder aplicar las ordenanzas de construcción antisísmica o, por lo menos, métodos simples que permitan reforzar las viviendas existentes. Para ello se necesita la ayuda internacional, sobre todo en los países en desarrollo.

Los movimientos sísmicos

Los observatorios registran más de 100.000 temblores cada año, es decir, un promedio de uno cada cinço minutos, pero no se da el alerta porque la gran mayoría no causa daños a la población. Se consideran riesgosos sólo los movimientos bruscos de mayor intensidad que se producen en la corteza terrestre. Si su epicentro se localiza en los continentes, se los denomina terremotos. Si la sacudida es en los fondos marinos se origina un maremoto, que es una agitación muy violenta de las aguas del mar.

El aumento de la población y la tendencia a la concentración urbana en áreas vulnerables a estos fenómenos incrementan los riesgos, especialmente en el cinturón de fuego del Pacífico. Se denomina así al cinturón de volcanes y movimientos sísmicos que rodean a la placa pacífica. En éste, y en menor medida en la cuenca mediterránea , se libera el 80% de energía sísmica total

La intensidad de los sismos se mide con el sismógrafo y se utiliza la escala de Richter (1 a 9). Indica por medio de ondas la cantidad de energía liberada desde el hipocentro, o sea el foco real del movimiento. Existe otra escala denominada Mercalli modificada, que va de O a 12 y evalúa la intensidad del sismo de acuerdo con los daños causados. Los terremotos destructivos son aquellos que registran una intensidad de grado 8 a 10, pero el daño provocado depende en gran parte del desarrollo económico de la región, de acuerdo con la calidad de los materiales de construcción utilizados.

Los tsunamis

Como se forma un tsunami

Los tsunamis se originan, generalmente, por el desplazamiento de placas de la corteza terrestre en el fondo marino. También se pueden presentar por la caída de meteoritos. Se los ha registrado en todos los océanos, aunque la mayoría de ellos se presentan en el Pacífico. El tsunami de 1896 en la costa japonesa de Sanriko, levantó olas enormes que arrasaron el litoral a lo largo de más de 1.000 kilómetros, y ocasionaron la muerte a más de 27.000 personas.

El fenómeno es registrado por los sistemas de detección y alerta con bastante anticipación, lo que permite transmitir la información a la población. Estados Unidos tiene colocado un sistema de alerta permanente contra los tsunamis en Honolulu (islas Hawai) y controla toda la cuenca del Pacífico.

La potencia destructora de los tsunamis se debe a la velocidad con que se desplazan (alrededor de 800 km/h), y a la altura que puede alcanzar la ola cuando impacta contra las costas (de 20 a 30 metros), por lo que son muy peligrosas para las poblaciones que allí residen. Al avanzar sobre el continente socavan edificios, puentes, arrastran autos o embarcaciones, etcétera.

Entre los países más afectados por los tsunamis se encuentra Japón debido a la alta densidad de población que habita en las zonas costeras bajas. Por este motivo se construyeron rompeolas a la entrada de las bahías y puertos, además de realizar plantaciones de pinos. Todas estas medidas son simples paliativos, porque la fuerza que hay detrás de estas olas es muy difícil y costosa de contrarrestar con medidas de ingeniería.

Vulcanismo

Como se forma un volcán

Más de un 10% de la población mundial puede sufrir una catástrofe por vulcanismo. Se calcula que en lasuperficie terrestre hay alrededor de 1.500 volcanes potencialmente activos, dc los cuales alrededor de 500 entraron en actividad en el curso ¿el siglo XX y cerca de 70 continúan en actividad, aunque son muy escasos los que entran en erupción.

La erupción del volcán, o sea, el derrame de lava incandescente (entre 9000 C y 12000 C), arrasa con todo lo que encuentra a su paso y provoca graves incendios. Cuando la lava se enfría, se solidifica y forma las rocas ígneas. La superficie terrestre queda petrificada y tarda muchos años en volver a formarse sobre ella la capa de suelo donde el hombre pueda practicar la actividad agrícola-ganadera o forestal. Por ejemplo, se calcula que tardó aproximadamente 50 años la recuperación de la flora y la fauna en la isla Krakatoa, en Indonesia, cuando el volcán homónimo entró en 1883 en erupción y su lava la cubrió por completo.

También se pueden presentar fenómenos anteriores o posteriores a la salida de lava, como la liberación de gases tóxicos, la diseminación de cenizas volcánicas, ríos de agua caliente y aluviones de barro que se presentan por el derretimiento de las nieves del cono volcánico. Por dichas razones se evita el asentamiento de población en estas áreas. Ejemplo de ello fue el volcán El Nevado del Ruiz, en Colombia. Cuando entró en erupción, la noche del 13 de noviembre de 1985, derritió la capa de nieve que tenía en su cráter por lo que el agua y posteriormente la lava ocuparon los cauces de los ríos y avanzaron a una velocidad de alrededor de 30 Km./h sobre las ciudades de Armero y Chinchina. Causó alrededor de 25.000 muertos, más de 5.000 heridos y la destrucción de aproximadamente 6.000 viviendas.

Otro caso preocupante es el del volcán Popocatépetl, en México, que comenzó su actividad en el año 1994 y amenaza a más de veinte millones de personas que viven en 100 km a la redonda.

En el encuentro de la Unión Geofísica Americana, en 1998 en Estados Unidos, un equipo de vulcanólogos de Hawaii presentó un sistema de alerta denominado Hot Spot (Punto caliente) porque localiza las anomalías térmicas por medio de colectores infrarrojos. Este sistema se basa en la observación permanente de doce puntos volcánicos ubicados en el océano Pacífico, en las islas Hawaii, en las islas Galápagos, en la isla deMonserrat, en el norte de Chile y en México.

La información es tomada por dos satélites geoestacionarios de estudio del medio ambiente (GOES), que pertenecen a la Agencia Norteamericana de Observación Oceánica y Atmosférica (NOAA). Los registros llegan a los científicos de los observatorios terrestres, vía Internet, en minutos, lo que permite transmitir la alarma a la población con algunas horas de anticipación.

Tsunamis Inclemencias del Tiempo Desastres de la Naturaleza Indonesia

Tsunamis Inclemencias del Tiempo
Desastres de la Naturaleza

Los Tsunamis: los movimientos de las capas que conforman la corteza terrestre ocasionan los sismos o terremotos, no sólo en la parte continental sino también en las profundidades de los océanos. Cuando se dan en las profundidades de los océanos, descargan grandes cantidades de energía que forman olas gigantescas que se estrellan violentamente sobre las costas, formando los llamados Tsunamís.

Estos desplazamientos, de enormes cantidades de agua, alcanzan velocidades de 900 Km. por hora y olas que miden varios metros de altura. Muchos se originan en los alrededores de la costa pacifica, debido a la actividad sísmica que en las profundidades de este océano se presenta. Anteriormente, este fenómeno era atribuido a las fuerzas gravitacionales existentes entre la Tierra y su satélite natural: la Luna, que dan lugar a las mareas.

LOS DESASTRES NATURALES

Cuando los fenómenos naturales superan un límite de normalidad.

El viento, las olas y toda la dinámica natural nos muestran la compleja interrelación que existe entre la litósfera, hidrósfera, atmósfera y biósfera. Gran parte de esa dinámica son para los seres humanos casi imperceptibles, como la erosión y la sedimentación producidas por el viento, los ríos, los glaciares, etcétera. Sin embargo, hay momentos en los cuales el comportamiento de los elementos naturales se vuelve violento, como los movimientos sísmicos y las erupciones volcánicas, poniendo en riesgo las sociedades, sus bienes y sus actividades.

Un movimiento sísmico, un huracán o cualquier otro fenómeno extremo de la naturaleza se convierte en desastre o catástrofe cuando ocasiona pérdidas humanas o económicas. Es decir, se denomina “Desastre Natural” sólo cuando el problema social o económico es detonado por un fenómeno de la naturaleza. Loe Golden dice “… un peligro latente se convierte en desastre si ocurre donde vive gente”.

Las consecuencias de los desastres naturales no deben mirarse únicamente desde el punto de vista de las vidas que se pierden, sino también desde el punto de vista económico, porque constituyen un obstáculo para el desarrollo económico y social de la región, especialmente en los países en desarrollo.

En ellos, un desastre puede ocasionar una reducción del Producto Bruto Nacional (PBN) por varios años. Por ejemplo, una inundación arrastra la capa fértil del suelo y tarda años en recuperarse. Se ha calculado que las pérdidas del PBN debidas a los desastres pueden ser, en proporción, 20 veces mayores en los países en desarrollo que en las naciones más adelantadas.

La FAO (Organización de las Naciones Unidas para la Agricultura y la Alimentación) ha calculado que la sequía registrada en los años 70 en El Sahel (África) redujo a la mitad el PBN de los países del área: Burkina Faso, Chad, Malí, Mauritania, Níger y Senegal.

Los desastres pueden tener consecuencias tardías, es decir que sólo se pueden evaluar a lo largo de varios años. Una sequía o una inundación pueden afectar la economía de la región o de un país de manera tal que repercuta en la calidad de vida y en la salud de su población por varios años, incluso décadas. Según la Oficina del Coordinador de las Naciones Unidas para el Socorro en Casos de Desastre (UNDRO), las inundaciones registradas en 1972 en Filipinas, retrasaron los esfuerzos de desarrollo del país entre tres y cinco años.

Una de las causas más importantes de la lentitud en el proceso de recuperación y reconstrucción de los países en desarrollo y subdesarrollados después de un desastre, es porque no cuentan con un alto porcentaje de bienes asegurados como los países desarrollados.

El huracán Andrew que azotó a Estados Unidos en 1992, ocasionó 30.000 millones de dólares de pérdidas, pero el 75% corrieron a cargo de compañías aseguradoras. En cambio, las inundaciones y deslizamientos de tierras que asolaron China en 1996, provocaron un perjuicio económico de 24.000 millones de dólares, pero sus seguros no alcanzaron a cubrir ni el 2% de las pérdidas.

Además, pasado el fenómeno, las víctimas no sólo necesitan ayuda material sino también apoyo psicológico. Los estudios demuestran un elevado aumento de casos de estados depresivos, personas con problemas relacionados con el consumo de alcohol y drogas, e incluso un preocupante incremento de la tasa de suicidios.

Un punto a tener en cuenta es que los desastres o catástrofes originados por fenómenos naturales son cada vez mayores y acarrean pérdidas millonarias. Los científicos que observan, registran y analizan la dinámica natural afirman que la frecuencia de los casos extremos no ha aumentado considerablemente. La magnitud de la problemática parte del aumento de la población mundial y de la pobreza. Los riesgos tanto físicos (lesiones y muertes) como sociales y económicas son agravados por el dónde y el cómo construye el hombre sus viviendas.

En la actualidad, al menos un cuarto de la humanidad vive en zonas vulnerables a los desastres, sobre todo en los países en desarrollo y subdesarrollados. En ellos, la gente asienta sus viviendas en lugares propensos a sufrir estas catástrofes.

Por ejemplo, en las zonas de montañas, los sectores de escasos recursos, construyen en las laderas, donde los aludes pueden arrastrar pueblos enteros, como sucedió en El Nevado del Ruiz (Colombia), o como recientemente (Enero de 2011) en Brasil, donde un alud cobró más de 600 vidas.
Otro ejemplo a analizar, son las viviendas asentadas en las riberas de ríos. En los momentos en que los mismos aumentan su caudal, desbordan y producen graves inundaciones.

Un facto a tener en cuenta es la falta de conciencia y cuidado del Medio Ambiente que se materializa en la Desforestación y en la Contaminación agravando los efectos de los fenómenos naturales.

Las selvas taladas de las laderas de las montañas favorecen las avalanchas o aludes, y sus sedimentos rellenan los cauces de los ríos, haciendo que desborden con mayor frecuencia, pero cobrándose miles de vidas.

CLASES DE DESASTRES NATURALES 

Se han clasificado más de 20 riesgos capaces de producir desastres. Abarcan desde terremotos hasta nieblas y brumas, pero los más importantes son:

Hidrológicos: oleajes tempestuosos, tsunamis

Meteorológicos:    inundaciones, huracanes, ciclones, tifones, tornados, sequías, heladas, granizadas, olas de frío o de calor, nevadas o temporales de invierno.

Geofísicos:    movimientos sísmicos y vulcanismo, avalanchas, derrumbes, aluviones, aludes.

Biológicos:   marea roja (aparición en la superficie de las aguas de mejillones, almejas, etc. que son portadores de toxinas y alteran la cadena trófica)

Amenaza natural y amenaza tecnológica
Se pueden distinguir dos grandes tipos de amenazas: las naturales y las tecnológicas.

La amenaza o peligro natural tiene su origen en fenómenos propios de la dinámica terrestre. Como la naturaleza es dinámica, existe toda una gama, de eventos físicos generados en el interior de la Tierra, en la atmósfera, en la hidrosfera (o en las interacciones de sus elementos) que pueden constituir amenazas.

Los seres humanos no intervienen en su ocurrencia, si bien muchas veces un manejo inadecuado de los ecosistemas puede generar una potenciación de los efectos negativos del evento, natural peligroso. Ejemplos que ilustran este último ,caso son el relleno de áreas pantanosas, que aumenta la amenaza sísmica o la deforestación en las altas cuencas fluviales, lo que a su vez aumenta la amenaza de inundaciones.

La amenaza o peligro tecnológico se origina en acciones humanas. Se trata de eventos que ocurren a partir de la falta de control en la manipulación de cualquier tipo de sistema tecnológico: una industria química, una central hidroeléctrica, una central nuclear, una estación de servicio, un automóvil. También se incluyen en este rubro los casos de vertimiento de sustancias peligrosas (químicos, tóxicos, plaguicidas, petróleo, etc.) que amenazan la integridad de un grupo social.

¿Quiénes y cómo estudian la amenaza?
Al analizar las amenazas, estamos poniendo la atención en los eventos detonantes del desastre. Estamos hablando de fenómenos tales como inundaciones, terremotos, accidentes químicos, etcétera, que son estudiados por geólogos, hidrólogos, vulcanólogos, ingenieros civiles.

Estos científicos evalúan las características y dinámicas específicas de cada amenaza, como por ejemplo:

  1. a) para la amenaza de inundación; el régimen hídrico y la morfología de las áreas inundables;
    b) para terremotos y erupciones volcánicas; la estructura geológica del área, la existencia de sismos anteriores, la susceptibilidad a la ocurrencia de sismos y la presencia de fallas;
    c) para los accidentes químicos; las características del material que se almacena en las industrias, del proceso de producción y del proceso de almacenamiento de las sustancias.

Se debe tener en cuenta, además, que muchas veces una localidad se encuentra enfrentada a varios peligros, lo cual obliga a un esfuerzo conjunto para conocer la mejor forma de responder a su ocurrencia. Un ejemplo de este tipo lo constituyen los sismos que pueden provocar explosiones e incendios en plantas industriales o rupturas en las redes domiciliarias de gas.

Fuente Consultada:
Geografía La Organización del Espacio Mundial  Serie Libros Con Libros Estrada Polimodal
Maravillas del Mundo de Luis Azlún
Días negros Para La Humanidad Paz Valdés Lira
La Historia de las Cosas Annie Leonard

Tragedias y Desastres Naturales Mundiales Recursos Naturales Resumen

Tragedias y Desastres Naturales Mundiales

Ecología y medio ambiente, un poco de historia:
LAS EXPLORACIONES espaciales han permitido conocer las reales dimensiones de las catástrofes ecológicas en nuestro planeta. En junio de 1993, el satélite Landsat obtuvo informaciones que señalan que la tasa de deforestación del Amazonas brasileño la zona forestal tropical más grande del mundo) fue de aproximadamente 15.000 km2 por año entre 1978 y 1988, y su mayor efecto fue sobre la diversidad biológica.

Sobre el mismo tema, el sociobiólogo Edward O. Wilson, de la Universidad de Harvard, y estudioso de la sobrevivencia de las especies, afirma que hoy desaparecen 27.000 especies al año, 74 al día y tres cada hora, a pesar de lo cual aún faltan siglos para que se extingan todas las especies.

Nadie sabe con certeza cuántas especies existen hoy, pero se han catalogado cerca de 1,4 millones, de las cuales más de la mitad son insectos, 250 mil son plantas superiores, 9.000 son aves y 4.000 corresponden a mamíferos. Según los cálculos de Wilson, al paso que va la humanidad, el 20% de las especies existentes se van a extinguir en los próximos 30 años, lo que representa un promedio alarmante.

Otro de los problemas que preocupan en relación al medio ambiente es el de la capa de ozono, que registra una disminución de concentración cada vez mayor que debilita su función. El récord en la disminución de la capa de ozono se produjo durante 1993 sobre la Antártida, con una cobertura de 9 millones de millas cuadradas. Ese mismo año, y de acuerdo con el Protocolo de Montreal, a las naciones en desarrollo se les pidió abandonar totalmente, para el año 2010, el uso de sustancias que agoten el ozono.

Un grupo internacional de importantes compañías electrónicas y aeroespaciales, en cooperación con el Banco Mundial y la Agencia de Protección Ambiental de EE.UU., emprendió en octubre de 1993 esfuerzos para eliminar el uso de solventes que agotan el ozono en Brasil, China, Malasia, México, Tailandia, Turquía, Corea y Taiwán.

El foro mundial llamado Cumbre para la Tierra, realizado en Río de Janeiro, Brasil, en 1992, constituyó un acontecimiento sin precedentes. Ahí se dieron cita una gran cantidad de jefes de gobierno, y la atención del mundo se centró en los serios problemas de pobreza y medio ambiente que enfrenta la comunidad mundial; esta reunión culminó con la formulación del Programa 21.

En él se consigna la imperiosa necesidad de solucionar problemas como el hambre, la pobreza, la enfermedad, el analfabetismo y también el incesante deterioro de los ecosistemas de los cuales dependemos para sobrevivir. Una de las conclusiones a las que se llegaron fue que, para obtener un futuro más próspero y seguro, es indispensable el trabajo en conjunto de todas las naciones en forma equilibrada en lo que respecta al medio ambiente y desarrollo.

El Programa 21, aprobado en la Cumbre para la Tierra, traduce la existencia de un consenso mundial y la determinación política al más alto nivel para favorecer la cooperación en materia de medio ambiente y desarrollo, para así enfrentar los desafíos que nos deparará el siglo XXI.

Al Gore, en su afamado libro “La Verdad Incómoda”, explica sobre los efectos de la desaparición del lago Chad. Es un lago poco profundo que se encuentra, situado en la frontera entre Chad, Níger, Nigeria y Camerún, en África. Su capacidad ha ido menguando con el paso del tiempo y debido, sin duda, a la desertización provocada por la cercanía del desierto del Sahara y por la captación de aguas para irrigación de cultivos.

“Hace solamente cuarenta anos, el lago Chad era tan grande como el lago Erie. Pero ahora, a causa de la disminución de las precipitaciones y de su uso cada vez más intenso por parte de los humanos, ha quedado reducido a un veinteavo de su tamaño original. Con todo, en la actualidad hay más gente que depende del lago Chad de la que nunca antes ha habido, a pesar de que las dunas ya cubren su lecho seco.

Su destino es tristemente característico de una parte del mundo en la cual el cambio climático puede medirse no sólo en términos de aumentos de temperatura, sino también en vidas perdidas. La desaparición del lago ha llevado a la eliminación de las pesquerías y los cultivos, lo cual ha obligado a desplazarse a millones de personas y puesto en peligro a muchas más.

Cuando estaba lleno, el lago Chad era el sexto más grande del mundo y se hallaba entre las fronteras de Chad, Nigeria, Camerún y Níger. La gente dependía de sus aguas para el riego de los cultivos, la pesca, el ganado y el agua para beber. N’guigmi, una ciudad de Níger a la que el lago Chad alguna vez abrazó por tres de sus flancos, se encuentra ahora a casi cien kilómetros del agua. Las barcas pesqueras y los taxis acuáticos están varados de forma permanente. Chad y Malafator, en Nigeria, han sufrido destinos similares. Al seguir las aguas en retroceso hasta Camerún, los pescadores nigerianos causaron escaramuzas militares y disputas legales internacionales. Cuando los granjeros comenzaron a labrar el lecho del que otrora había sido el lago, se produjeron luchas por los derechos de propiedad.

Mientras el lago Chad se secaba, un periodo de sequías particularmente intensas preparaba el escenario para la violencia que estalló en el cercano Darfur, una región sudanesa desgarrada por la guerra. Al norte y al oeste, Marruecos, Túnez y Libia pierden cada uno mil kilómetros cuadrados de tierras productivas al año como consecuencia de la desertización. Y hacia el sur, en Malawi, cinco millones de personas estuvieron en peligro de morir de hambre en 2005, cuando los granjeros sembraron según el calendario, pero las lluvias nunca llegaron. La mayoría de los africanos aún depende, literalmente, de los frutos de su trabajo: cuando las cosechas fracasan, todo se viene abajo.

Se prevé que estos problemas se agravarán. Los científicos han predicho que para el final de este siglo, la gente de muchas ciudades africanas perderá entre un cuarto y la mitad del caudal fluvial que necesita para sobrevivir. En particular, durante los años secos, veinte millones de personas podrían perder las cosechas que los alimentan. El Delta del Okavango, en Botsuana, famoso por su exuberancia, podría perder tres cuartas partes del agua que contiene, poniendo en peligro una reserva de más de cuatrocientas cincuenta especies de aves, elefantes y predadores. La fauna salvaje africana atrae visitantes de todo el mundo y su pérdida destruiría el principal motor económico de la región, es decir, el turismo.

En ocasiones, en los debates que surgen alrededor de la mitigación de la hambruna, se da a entender que son los propios africanos quienes se la han buscado, por culpa de la corrupción o la mala administración. Pero a medida que comprendemos más profundamente el cambio climático, se hace más visible que los verdaderos culpables somos nosotros. EE.UU. emite alrededor de un cuarto de los gases invernadero del mundo, en tanto que todo el continente africano es responsable solamente del 5%. De igual modo que no podemos ver realmente los gases invernadero a menudo, y desde una distancia tan grande, tampoco vemos su impacto. Pero ya es momento de aceptar con frialdad y honestidad nuestro papel en este creciente desastre. Hemos contribuido a construir el sufrimiento de África y tenemos la obligación moral de acabar con él.”