Proyecto Genoma

Etapas en la Digestión de los Alimentos Cuerpo Humano

Etapas en la Digestión de los Alimentos

Sahemos que los alimentos realizan en nuestro organismo importantísimas funciones: aportan los elementos necesarios para la formación y desarrollo de los innumerables compuestos orgánicos que lo integran y suministran las calorías necesarias para la vida, en una serie de procesos químicos que se efectúan, muchos de ellos, en la intimidad de las células.

Pero nosotros no ingerimos sustancias simples, capaces de ser asimiladas inmediatamente a nuestros tejidos, sino que, por el contrario, nuestros alimentos son cuerpos compuestos, formados por una serie de elementos agrupados de distinta manera, como sucede con el pan, la carne, etc.

Ahora bien, este pan, esta carne, no se incorporan a nuestro cuerpo según se ven, sino que son desmenuzados, desintegrados paulatinamente hasta sus componentes más simples, que, entonces sí, son absorbidos e incorporados a nuestros propios tejidos, adonde son llevados por la corriente sanguínea.

Todos estos procesos de orden físico-químico, que llevan a la destrucción de la materia constitutiva de los alimentos hasta sus componentes básicos asimilables y su ulterior absorción, constituyen, en resumen, la digestión.

Ésta se lleva a cabo en el aparato digestivo, por medio de un conjunto de compuestos, casi todos ellos fermentos, que forman parte de los jugos digestivos elaborados por una serie de glándulas, que los vuelcan con sus secreciones, a lo largo del citado aparato, desde la boca hasta el intestino. Este proceso es común a los tres principales componentes de los alimentos: grasas, hidratos de carbono y las denominadas proteínas.

¿QUÉ ES  EL ALIMENTO?
Es necesario recordar que los alimentos se componen de tres clases de sustancias fundamentales:
1) hidratos de carbono o glúcidos: azúcares, almidón, celulosa, etc., contenidos sobre todo en los vegetales, en el pan y en las pastas;
2)
grasas o lípidos: contenidos en la manteca, aceites, etc.;
3) proteínas o prótidos: se encuentran en la carne, huevos, quesos, etc. Se hallan, además, sustancias inorgánicas, agua y sales minerales, necesarias a nuestro organismo.

ESQUEMA DEL APARATO DIGESTIVO

Etapas en la Digestión de los Alimentos

ETAPAS DE LA DIGESTIÓN

1) DIGESTIÓN BUCAL. Los dientes trituran los alimentos, mientras las glándulas salivales vuelcan su secreción, la saliva, en la boca. Esta saliva, por medio de un fermento, la tialina, transforma el almidón en un azúcar simple, la maltosa. Además embebe los alimentos y lubrica la mucosa bucal.

2) DE LA BOCA AL ESTÓMAGO. El alimento masticado, que origina la formación del bolo alimenticio, es deglutido y, por medio del esófago, llega hasta el estómago.

3) LA DIGESTIÓN GÁSTRICA. El jugo gástrico segregado por las glándulas de la mucosa del estómago posee dos integrantes fundamentales en la digestión: el ácido clorhídrico y la pepsina.

corte esquematico del estómago

El primero disuelve ciertos elementos (fibras conjuntivas, nucleoproteínas, etc.) y crea un medio cuya acidez favorece la acción de la segunda, que es un poderoso fermento   actuante   sobre   las   proteínas,   desdoblándolas en cuerpos más simples: peptonas y albumosas. La acción de aquéllos resulta favorecida por los movimientos que el estómago imprime a la masa alimenticia permitiendo primero su mezcla y, luego, su progresión hacia el intestino.

 4) DEL ESTÓMAGO AL INTESTINO. Después de un tiempo, que varía entre 1 y 6 horas, según los alimentos, se ha completado la digestión gástrica y el bolo alimenticio ha sido transformado en una papilla blanquecina llamada quimo. El estómago, entonces, contrayéndose, lo envía hacia el intestino, pasando a través de un anillo muscular a modo  de válvula,   llamado píloro   (válvula gastrointestinal).
 5) LA DIGESTIÓN INTESTINAL. Cuando el quimo llega a la primera porción del intestino, el duodeno, se inicia la digestión intestinal, mediante la acción de tres jugos, que son los siguientes:

1) Jugo duodenal o intestinal: es producido por las células de la pared del duodeno y posee varios fermentos: erepsi-na, que actúa sobre las peptonas desdoblándolas en aminoácidos; lipasa, que desdobla las grasas; maltasa, que tranforma la maltosa en glucosa; invertasa, que desdobla la sacarosa en fructosa y glucosa.

2) Jugo pancreático: segregado por el páncreas y llevado al duodeno por los conductos pancreáticos (de Wirsung y de Santorini), este importantísimo jugo digestivo actúa sobre los tres tipos de sustancias que componen los alimentos, por medio de cuatro fermentos que son:
a) tripsina: actúa sobre las peptonas y albumosas, transformándolas en aminoácidos asimilables;
b) lipasa, desdobla las grasas, ayudada por la bilis y las transforma en ácidos grasos y glicerina, fácilmente absorbibles por el intestino;
c) amilasa, completa la acción de la saliva y jugo intestinal, desdoblando el almidón en glucosa;
d) maltasa: desdobla la maltosa en glucosa.

3) Bilis: segregada por el hígado y almacenada en la vesícula biliar, cuando llega al intestino cumple importantes funciones: emulsiona las grasas, favorece la absorción de ciertos ácidos, excita los movimientos del intestino, etcétera.

 6) LA ABSORCIÓN INTESTINAL. Después de ser, como hemos visto, profundamente transformada, el quimo se convierte en una masa muy fluida, a la cual se le da el nombre de quilo. A medida que la digestión se va completando, las sustancias alimenticias, transformadas en otras capaces de ser utilizadas por el organismo, van siendo absorbidas por conducto de las vellosidades intestinales.

En toda la mucosa del intestino delgado, las vellosidades van absorbiendo el quilo, por medio de las células absorbentes que las recubren.

Las grasas pasan en parte a los vasos linfáticos y de éstos al conducto torácico que las conduce al sistema sanguíneo. En cambio, las proteínas, los azúcares y las sales penetran en los capilares; de allí pasan a la vena porta, que los conduce directamente hasta el hígado.

7) LA LABOR DE LAS BACTERIAS. En el intestino grueso es absorbida el agua; por otro lado, millones de bacterias atacan la celulosa de los alimentos vegetales, que no es alterada por los jugos digestivos, y la transforman, aunque en pequeña parte, en glucosa asimilable.
8) LA EXPULSIÓN. Finalmente la masa de sustancia, privada de todos los materiales alimenticios y de buena parte del agua, queda reducida a una pasta formada por desechos no digeribles, moco, sales y productos intestinales no asimilables, que es expulsada formando las materias fecales.

Fuente Consultada:
Enciclopedia Estudiantil Ilustrada de Lujo Tomo VII – La Digestión-


 

Descripcion de como funciona el pulmon Experimento

EXPERIMENTO: CÓMO FUNCIONA EL PULMÓN
La respiración es un proceso muy simple. El tórax constituye una caja en cuyo interior se encuentran los pulmones, sacos de un delicado tejido que presentan una gran superficie y que están en comunicación con el exterior por la nariz y la boca.

pulmón humano

Lo base inferior de la caja torácica se cierra por medio del diafragma, una lámina elástica de tejido muscular. Cuando se inspira, aumenta el volumen de la caja torácica, porque baja el diafragma y suben las costillas, movidas por la contracción de los músculos intercostales.

El aumento de volumen se traduce en una disminución de la presión en el interior de la caja torácica, es decir, de la presión sobre los pulmones; al ser menor la presión exterior de los pulmones que la interna (que es la atmosférica), los sacos se dilatan y entra aire en ellos. Esta dilatación continúa hasta que su incremento de volumen iguala al que experimentó anteriormente la caja torácica; en dicho momento, vuelven a igualarse las presiones en ésta y en el interior de los pulmones, y cesa la dilatación.

Lo espiración es un proceso pasivo; el diafragma y las costillas vuelven a su posición inicial, se presiona sobre los sacos pulmonares y ello determina la expulsión del aire. Se puede realizar un sencillo experimento que demuestra bastante fielmente este mecanismo de la respiración.

Se prepara un recipiente de cristal sin fondo (véase la figura abajo); en la boca se ajusta un tapón perforado por un tubo de vidrio, que termina, por el interior del recipiente, en dos salidos, como una Y invertida; en los extremos de ambas salidps se sujetan dos globos desinflados (los pulmones;, como los que utilizan los niños para sus juegos, y en la base del recipiente se sujeta también una membrana de goma (el diafragma) con una argolla, para poder tirar de ella.

experimento pulmon

Cuando se aumenta el volumen del recipiente al estirar hacia abajo la argolla, los globos se inflan (figura de la derecha, o inspiración); si se la suelta, vuelve a su posición primitiva y los globos se desinflan (figura  de  la   izquierda,  o  espiración).

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología N°127

Medir la Capacidad Pulmonar Espirómetro Como se Mide?

¿COMO SE MIDE LA CAPACIDAD PULMONAR? – USO DEL ESPIRÓMETRO

LA CAPACIDAD PULMONAR
El aire es vital para nuestro organismo; en esto mezcla de gases, junto con nitrógeno, anhídrido carbónico, vapor de agua y pequeñas cantidades de gases nobles, se encuentra el oxígeno, en una proporción del 21 %, aproximadamente.

El oxígeno es, en realidad, el elemento indispensable para lo vida anima¡l; sin él no se puede verificar la combustión celular y, por tanto, todas las complicadas reacciones orgánicas que constituyen el metabolismo de los seres animados.

El hombre, como la mayoría de los animales terrestres y aéreos, dispone de pulmones para inspirar el aire y ponerlo en contacto con el sistema circulatorio, donde la sangre incorpora a su hemoglobina el oxígeno que el organismo requiere.

medicion capacidad pulmonar espirometro

Las necesidades respiratorias del hombre adulto pueden variar bastante y dependen del tipo de actividad que realice o del estado patológico en que se encuentre. Así, un hombre que realiza un trabajo físico intenso (o un atleta en plena competición) está quemando sus reservas alimen^ ticias masivamente y, por tanto, consumiendo oxígeno en igual   proporción.

Si estos esfuerzos los realiza un hombre normal, que no está acostumbrado a ellos, su respiración se hace jadeante, inspira y espira el aire a un ritmo muy superior al ordinario, porque su capacidad pulmonar no está desarrollada para llevar a cabo tales esfuerzos.

Por otra parte, cuando una persona tiene fiebre, su metabolismo, acelerado por causas patológicas, es intenso; el cuerpo no puede disipar la energía calorífica que produce y, en consecuencia, se eleva su temperatura; en tales condiciones, su respiración tiene que suplir también el incremento del oxígeno que su activo metabolismo requiere y aquélla llega, entonces, a ser jadeante, si no se toman ciertas precauciones —como guardar cama, es decir, permanecer en reposo—, para que el cuerpo tenga las menores exigencias energéticas posibles.

¿Y cuál es la capacidad pulmonar del hombre? Este término es un poco ambiguo y necesitamos aclararlo, porque existen, diversas capacidades pulmonares, que dependen de la forma en que se realice la respiración. Para explicarlo mejor, vamos a referirnos a los valores medios de un hombre  corriente.

La capacidad pulmonar de nuestro organismo se puede determinar, experimentalmente, con un aparato que se denomina espirómetro. En la figura se ha representado un esquema de dicho aparato; consta de un recipiente lleno de agua, que dispone de una campana invertida, como las utilizadas para recoger gases, equilibrada cuidadosamente, a través de una polea, por un peso determinado.

El hombre que quiere averiguar su capacidad pulmonar espira el aire por un tubo de. goma y, de esta forma, lo introduce en el interior de lá campana, provocando su ascensión; un índice, situado en la parte superior de aquélla, recorre una escala graduada y registra directamente el volumen de aire espirado por el individuo. Si el hombre inspira y espira normalmente en el aparato, el íhdice señalará 0,5 litros; es decir, el volumen de aire normal respirado por el hombre es de medio litro.

Si ahora inspira a fondo y espira normalmente, el índice señalará 2 litros; si o estos 2 litros le restamos el medio litro del aire normal, tenemos 1,5 litros, que constituyen el denominado aire complementario, que puede conseguir el hombre forzando la inspiración.

El individuo también puede realizar una inspiración normal y una espiración forzada; en. tal caso, el índice señala también. 2 litros; si de estos 2 litros restamos el medio litro del aire normal, tenemos 1,5 litros del llamado aire de reserva, otro volumen extra, del que puede disponer el hombre forzando la. espiración.

Por último, si se esfuerza tanto la inspiración, como la espiración, el espirómetro señalará 3,5 litros, volumen que constituye la capacidad vital del hombre, que, evidentemente, se compone de los siguientes términos:

Aire   normal   (0,5   l.) + Aire   complementario   (1,5   l.) + Aire   de reserva  (1,5   l.) = 3,5   litros

Pero, a pesar de todos los esfuerzos que el hombre haga, en la espiración, no puede desalojar por completo todo el aire que guarda en sus pulmones.

Quedan, otros 1,5 litros en su interior, que constituyen el volumen dé aire residual. Ere consecuencia, la capacidad total de los pulmones del hombre normal es de 5 litros, sumo de los volúmenes de aire normal, complementario, de reserva y residual. Ahora cabe preguntarse: ¿por qué muchos atletas, aun en plena, competición, están frescos y tienen el ritmo de respiración normal, según se observa?

Ello es consecuencia de la gimnasia y del entrenamiento que realizan sistemáticamente; con ejercicios respiratorios bien dirigidos y practicados, la capacidad vital de sus pulmones puede llegar a incrementarse notablemente y pasar, del valor normal (3,5 litros), a un valor de 7 litros.

Es fácil imaginar que tal capacidad respiratoria puede suministrar adecuadamente el incremento de oxígeno que exige un esfuerzo deportivo. Por ello, un buen deportista (o un hombre que quisiera mantenerse en excelente forma física) no debe abandonar los ejercicios gimnásticos.

Experimento con la Respiracion Anhídrico Carbonico

RESPIRACIÓN HUMANA: DEMOSTRACIÓN DE EXHALACIÓN DE ANHÍDRIDO CARBÓNICO

Es sabido que todos los organismos vivos superiores absorben el oxígeno del aire y expulsan anhídrido carbónico.

Así, en los mamíferos, por ejemplo, el aire entra en los pulmones y allí se verifica un cambio notable; la carboxihemoglobina de la sangre procedente de los diversos tejidos cede anhídrido carbónico (producido en la combustión celular) y capta el oxígeno del aire respirado, transformándose en oxhihemaglobina, con destino a los tejidos. Este hecho se puede poner de manifiesto fácilmente con un sencillo experimento.

Se trata de demostrar con este experimento que en el aire expelido existe anhídrido carbónico.

Se podrá argumentar “a priori” que en el aire normal (el que se aspira) ya existe esta sustancia, y que¿ por tanto, no tiene nada de extraño que se encuentre en el que se expulsa. El experimento permitirá determinar qué cantidad de CO2 tiene el aire normal, y cuál es la que se produce en la respiración.

experiencia de respiracion humana

Para detectar el anhídrido carbónico se utilizará una reacción característica. En efecto, esta sustancia reacciona con el hidróxido calcico (agua de cal), y se produce carbonato cálcico:

C02 + Ca (OH)2 —–>* CO3Ca + H2O

Como el carbonato calcico es insoluble, puede observarse la manera en que precipita de la solución, a medida que se   forma.

Se preparan dos frascos, como se indica en la figura; en cada uno de ellos se pone cierto volumen de una solución límpida de Ca(OH)2 (agua de cal filtrada). Para iniciar el experimento se aspira aire por la embocadura A, presionando con los dedos el empalme flexible 2; con ello, el aire penetra en el aparato por él tubo B, burbujea a través de la solución del primer frasco, y se separa de CO2 al reaccionar con el hidróxido calcico correspondiente; se puede observar cómo precipita el carbonato calcico formado.

Por tanto, este aire que se respira penetra en los pulmones, exento de CO2. A continuación, y presionando previamente el empalme 1, se expulsa el aire de los pulmones, también a través de la embocadura A. De este modo, el aire expulsado burbujea por la solución del segundo frasco, para salir por el tubo C.

La precipitación de carbonato calcico que tiene lugar en el segundo frasco demuestra que el aire procedente de los pulmones va cargado de anhídrido carbónico, y de la abundancia del precipitado se deduce que su concentración en esta sustancia es muy superior a la que tiene el aire atmosférico.

Cifras concretas de estas concentraciones se pueden obtener, tras una serie de aspiraciones, filtrando las soluciones recogidas en cada frasco y pasando el CO3Ca sólido que queda   en   los   filtros.

Por ejemplo, si se conoce la capacidad pulmonar dé la persona que realiza el experimento, se deducirá que, después de las respiraciones necesarias para que pase un volumen determinado de aire por los pulmones, el precipitado recogido en el primer frasco corresponde a una concentración, en anhídrido carbónico, del 0,03 % y en el segundo, de un 4 %.

Por consiguiente, el aire expulsado por los pulmones tiene unas 130 veces más anhídrido carbónico que el aire atmosférico normal.

De hecho, el aire que se respira tiene 21 % de oxigene y 0,03 % de anhídrido carbónico; el aire que se expele tiene   16′ %   de  oxígeno y 4 %   de anhídrido carbónico.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y La Tecnología Fasc. N°96

Concepto de Biotecnología Aplicaciones en la Salud Insulina Humana

Biotecnología: Historia, Aplicaciones en Medicina y Concepto
La técnica de lafermentación, en la cual microorganismos, como por ejemplo la levadura, convierten materias primas en productos útiles, se conoce desde los tiempos más remotos. A mediados del siglo XIX ya se producía alcohol industrial por fermentación, casi de la misma forma que la cerveza o el vino.

Y en la década de los 70, cuando el precio del petróleo crudo subió, el alcohol producido de esta forma pudo competir en algunas circunstancias con el “oro negro”. En Estados Unidos y Brasil se han construido grandes fábricas de fermentación para convertir en combustible materias vegetales, como el maíz.

La biotecnología moderna tiene sus orígenes desde hace al menos de cuarenta años, aunque tal vez haya comenzado a gestarse en el momento en que Watson y Crick describieron la estructura del ADN y, más audaces aún, arriesgaron hipótesis sobre cómo se duplicarían nuestras células o las de todo organismo vivo. Muchos años después, en 2005, Watson declaró: “En 1953, con F. Crick, creíamos que estábamos contribuyendo a una mejor comprensión de la realidad. No sabíamos que estábamos contribuyendo a su transformación”.

cadena de adn biotecnologia

Esta joven tecnología se basa en “manejar” la información genética (IG), es decir, se puede tomar un fragmento de ADN (gen) de los cromosomas de un organismo, eligiendo el que tiene los datos para fabricar una determinada proteína (por ejemplo, insulina humana), y colocarlo en otra especie (bacterias, levaduras, células vegetales, etc.) para reproducirlo y obtener dicha proteína y, fundamentalmente, producirla de manera industrial. “Manejar” la IG, además, significa controlar que un gen no funcione o que funcione, se “exprese” o no se “exprese”.

Explicación breve: La información genética que poseen los seres vivos está contenida en las moléculas del ácido desoxirribonucleico (ADN) (material de los cromosomas que están en el núcleo de cada célula). Las moléculas de ADN están formadas por una doble cadena de subunidades llamadas nucleótidos. Cada nucleótido consta de un grupo fosfato, un azúcar (deso-xirribosa) y ademas uno de los cuatro grupos químicos denominados bases nitrogenadas: Adenina (A), Guanina (G), Timina (T) y Citosina (C), la secuencia de los cuales siendo la que determina la información. Esta información está organizada en unidades discretas denominadas genes, consistentes en un segmento de ADN que contiene una información concreta, transcrita en una molécula de ácido ribonucleico (ARN) -en la mayoría de los casos de ARN mensajero-, que, posteriormente, se traducirá en una proteína. Cada especie contiene en todas sus células un conjunto de genes, característicos de especie, que se encuentran distribuidos en una, pocas o en algunos casos muchas moléculas de ADN denominadas cromosomas. Desde el año 1953 en que J. Watson y F. Crick describieron la estructura molecular del ADN, los biólogos moleculares han ido, paulatinamente, poniendo a punto técnicas que posibilitan la manipulación de los genes. El objeto de estas manipulaciones era, por un lado, obtener genes purificados por aislamiento bien a partir de los cromosomas, bien por síntesis “in vitro”, y, por otro, introducir estos genes en células receptoras, con lo que se consigue que se expresen, o sea, que funcionen de modo que se transcriban dando lugar al ARN correspondiente, y se sintetice así la proteína codificada por el gen introducido. En definitiva, lo que se pretende es que las células receptoras adquieran propiedades genéticas que antes no poseían. El conjunto de los trabajos destinados a lograr dichos objetivos constituye el campo de la ingeniería genética.

PRIMERAS APLICACIONES: Desde la época de Pasteur y, más cercanamente, a partir de la producción industrial de antibióticos y vacunas, se habla de “producciones biológicas” o “microbiología industrial” (fermentaciones para producir alimentos y bebidas, por ejemplo).

Sus productos y sus tecnologías no son para nada despreciables: pensemos en las vacunas contra el sarampión, la poliomielitis o la meningitis; en todos los antibióticos que usamos; las gamma globulinas en general y las específicas (antiRh, antihepatitis, etc.); los diagnósticos para detectar portadores del virus del sida o de la enfermedad de Chagas u otras enfermedades infecciosas, o los test de embarazo. No sólo son de gran utilidad médica, sino que permitieron crear una muy fuerte industria biológico-farmacéutica.

Mediante la fermentación se puede producir también cierto número de ácidos. El vinagre (ácido acético diluido) es uno de los ejemplos más importantes. El ácido cítrico, muy usado en comidas y bebidas, se producía originariamente a partir de frutas cítricas, hasta que dominó el mercado un proceso de fermentación desarrollado por la compañía estadounidense Pfizer en la década de los 20. Pfizer todavía produce la mitad de las 250.000 toneladas de ácido cítrico que se utilizan anualmente. Otros productos químicos que se pueden fabricar mediante la fermentación son la glicerina, la acetona y el glicol de propileno.

La fermentación ha demostrado también su utilidad en la industria farmacológica. Tras el descubrimiento del antibiótico de la penicilina en 1928 ), durante la década de los 40 se desarrollaron métodos de fermentación a gran escala para producir el fármaco comercialmente. En la actualidad, se fabrica de esta forma un gran número de medicamentos, así como otros productos bioquímicos; por ejemplo, enzimas (catalizadores bioquímicos), alcaloides, péptidos y proteínas.

La técnica de la ingeniería genética ha aumentado de forma considerable la gama de productos posibles. Alterando la estructura genética de un microorganismo se le puede obligar a producir una proteína muy distinta de la que produciría naturalmente. Por ejemplo, si la parte corta del ADN responsable de la producción de la hormona del crecimiento en los humanos, se inserta en células de cierta bacteria, la bacteria producirá la hormona humana mientras crece.

Y entonces estará en condiciones de ser extraída y utilizada para tratar a niños que de otro modo no crecerían correctamente. Los mismos métodos se pueden emplear con objeto de producir insulina para diabéticos. También las ovejas han sido tratadas genéticamente para que produzcan en su leche un agente coagulante para la sangre humana.

El Lic. Alberto Diaz dice en su libro “Biotecnología por todos lados”

“La genética es el estudio de la herencia y sus mecanismos; fue utilizada de manera empírica a lo largo de la historia para obtener mejores “razas” de animales y variedades vegetales para la alimentación humana. Pero desde la década de 1950 las investigaciones en ciencias de la vida fueron muy intensas y llegaron a desentrañar los mecanismos moleculares de replicación o duplicación de macromoléculas, y a determinar estructuras de proteíñas, sus biosíntesis y el código genético, lo que llevó a entender y poder dominar la información genética.

Con estos antecedentes, el nacimiento de la ingeniería genética, a principios de la década de 1970, permitió transferir “genes” (información genética contenida en una secuencia de moléculas químicas perfectamente conocidas) de una especie a otra, sobre lodo a bacterias, pero también a células animales y plantas, para ser usados en la fabricación de nuevos productos para la salud 0 la alimentación, o en nuevos materiales, lo que sentó las bases de una nueva industria.”

La importancia de esta tecnología es que permite modificar : nanismos, células o tejidos insertando o sacando los genes que se desea usar. Como los genes tienen la información para las diversas proteínas que se encuentran en las células, es posible hacer que un organismo seleccionado produzca una determinaba proteína o metabolito (molécula) y que adquiera una característica deseada.

Si se compara la manipulación genética que los criadores de animales y de plantas vienen realizando desde hace miles de años, la diferencia más importante que esa modificación tiene con la ingeniería genética es que esta última permite el pasaje de genes específicos (los que se han seleccionado) en menor tiempo y, también, posibilita la transmisión de información de una especie a otra (inserción de genes de microorganismos en plantas, de humanos en animales, de humanos en bacterias, etc.). Básicamente, esta última característica es la que hace que sea tan apreciada por algunos y muy rechazada por otros.”

El primer biofármaco (es decir un fármaco biológico fabricado por la biotecnología) que llegó a venderse en los mercados internacionales fue la insulina humana.. Las novedades que trajo la tecnología del ADNr para su uso en la industria farmacéutica se pueden ver en el cuadro de abajo que con adaptaciones, se aplica al resto de los sectores productivos.

Logros e importancia industrial y científica de la biotecnología

  • Fabricar proteínas humanas para usar como medicamentos.
  • Fabricar proteínas humanas a escala industrial; para ello, sólo se requiere contar con las estructuras industriales indispensables y con la bacteria (o célula u organismo) que contenga el gen necesario.
  • Fabricar proteínas humanas con medianos o bajos costos de producción.
  • Seguridad y/o bioseguridad en la elaboración, es decir, que esté libre de contaminantes (virus, priones).
  • Recursos humanos: gente educada (no sólo que no Insulte) y formada en estas nuevas tecnología.
  • Facilita la Investigación blomédica con las nuevas moléculas (interleuqulnas, células madre, eritropoyetina, AcMc, receptores celulares, etc.).

“La insulina es utilizada para el tratamiento de la diabetes desde hace unos ochenta años, pero hasta 1982 se la fabricaba a partir del páncreas de los cerdos y de los bovinos (cosa que se sigue haciendo y no está nada mal). Sería maravilloso poder producir insulina humana en cantidades que no dependieran de la existencia de cabezas de ganado con que cuente un país, con la ventaja de que, al ser humana (la misma especie), la resistencia a los tratamientos será muy baja o inexistente, a lo que se agrega que se trata de un producto más seguro, ya que no se introduce el riesgo de un posible virus o partícula infecciosa animal.

Hoy en día cualquier biólogo puede poner un gen heterólogo (de otra especie) en una bacteria o en células animales o vegetales y fabricar un “transgénico” que podrá producir insulina u otra proteína para tratamientos terapéuticos o para estudios e investigaciones.También, obtener proteínas que sirvan para vacunar o para generar enzimas destinadas a fabricar mejores jabones para la limpieza de la ropa o de la vajilla. Pero, en verdad, ¿cualquier biólogo puede hacerlo?

Una cosa es hacer un experimento en el laboratorio de enseñanza o de investigación y otra es hacer un medicamento a escala industrial y venderlo en todo el país. Para que esto fuera exitoso se necesitó una colaboración muy estrecha entre universidades y nuevas empresas de biotecnoloría, las cuales luego tuvieron que negociar con las grandes productoras y comercializadoras de medicamentos, la gran industria irmacéutica internacional. Hoy ese modelo sigue funcionando riendo exitoso también en la Argentina.”

PRINCIPALES BIOFÁRMACOS EN EL MERCADO ACTUAL

Producto Empresa (Laboratorio) Indicación Año Salida a Venta

HEMODERIVADOS Kogenate (rFactorVIll) Genentech-Miles Hemofilia A 1992


TROMBOLÍTICOS Activase (rTPA) Genentech Infarto agudo 1987


HORMONAS EH Lilly Diabetes mellitus 1982
Humulin (rh Insulina)


ERITROPOYETINA (EPO)
Epogen (rh EPO) Amgen-J&J Anemia 1989


INTERFERONES
Roferón A (rh IFN alfa2a) Roche Oncología 1986
(tricoleucemla)
Intrón A (rh IFN alfa2b) Schering Plough Oncología 1986
(tricoleucemia)


VACUNAS
Recombivax HB Merck &Co. Hepatitis B 1986
Gardasil y Cervarix Glaxo SK y Merck Cáncer cervical 2007
por Papilloma virus


FACTORES
Neupogén (rh G-CSF) Amgen Inmunodeficiencia 1991


AcMc OKT3 Ortho Biotech Trasplantes (evita rechazo) 1986
Herceptín Genentech Cáncer de mama 1999
metastásico

CD30 Seattle Genetics inc. Linfoma de Hodgkin 2011


Inmunoglobulina Rare Disease Therap. Picadura de escorpión 2011
Antiveneno


ETICA DE LA MANIPULACIÓN GENÉTICA
Problemas Actuales

En la actualidad, el sector comercial (dedicado a la producciónde aliemntos) se ha convertido en el motor del desarrollo de las ciencias aplicadas. Muchas empresas han aportado grandes sumas de capital para financiar proyectos de investigación cuyos resultados pueden proporcionarles beneficios nada desdeñables.

Nos guste o no, éste es el sistema actual y la agricultura no es ajena a la situación. Algunas compañías especializadas en la comercialización de semillas, abonos y demás productos agrícolas han debido enfrentarse a agresivas campañas contra la introducción de variedades modificadas genéticamente. Una de las más importantes, Monsanto, ha sufrido los ataques de numerosos grupos de activistas que han llegado a destruir campos de cultivo experimentales.

El problema, pese a lo que pueda parecer a simple vista, no es nuevo: hace casi dos siglos, en 1815, un grupo de trabajadores textiles ingleses, capitaneados por un tal Ned Ludd, entraron por la fuerza en una fábrica para destruir los telares mecánicos que acababan de instalarse. El triste suceso dio lugar a una corriente de pensamiento contraria al desarrollo tecnológico que, en homenaje a su primer héroe, se llamó ludismo, por lo que aquellos que se oponen a la aplicaión de la biotecnología, le llama: bioludista. Como puede verse, las nuevas tecnologías no siempre son aceptadas de buen grado.

Manipulación genética
En rigor, ¿qué debe tenerse en cuenta a la hora de hablar de alimentos modificados genéticamente? Para empezar, se debe partir del hecho que, desde el origen de la agricultura, el ser humano a intentado obtener mejores variedades mediante procedimientos de selección y cruce que, sin saberlo, entrañaban importantes cambios en la estructura genética de las especies.

En la actualidad, las técnicas empleadas, por muy artificiales que puedan parecer, son tan naturales como las antiguas -aunque un poco más sofisticadas-, si bien permiten obtener resultados con mayor rapidez y seguridad. Las nuevas técnicas de manipulación genética pueden acelerar el proceso y eliminar en buena parte el azar, lo cual redunda en una selección mucho más cuidadosa de los rasgos que se desean potenciar. Aun así, el producto final -sea fruta, verdura, legumbre o grano- no guardará demasiadas diferencias en comparación con otras variedades obtenidas por procedimientos tradicionales.

A lo largo de varios siglos, granjeros y agricultores han recurrido a la selección y el cruce para mejorar las características de las plan-las. La naturaleza evoluciona con una enorme lentitud: los cambios se desarrollan a lo largo de millones de años y el ser humano no po-día permitirse aguardar tanto tiempo.

La configuración de un fenotipo determinado altera el genoma de una planta, a la que se obliga a evolucionar en una dirección concreta. Una tarea de estas características depende en buena parte de la capacidad del granjero o el agricultor, quien debe escoger los mejores ejemplares y mantenerlos en un entorno favorable para que se reproduzcan de manera satisfactoria. Por desgracia, no siempre se obtienen li is resultados deseados y a menudo, la introducción de nuevas carac-lerísticas en una variedad se convierte en una tarea casi imposible.

I,a ingeniería genética permite llegar a extremos insospechados. Gracias a las modernas técnicas de manipulación, por ejemplo, es posible insertar genes nuevos en un genoma antiguo o completamente ajeno.

En la actualidad, el método principal para introducir genes nuevos en el genoma de plantas se basa en el empleo de bacterias como transmisores.

El Agrobacterium tumefaciens es una bacteria patógena que causa tumefacciones cancerosas en algunas especies vegetales al transferir parte de su ADN al de su anfitrión. Una vez dentro de la célula huésped, el nuevo segmento de ADN se desplaza al núcleo, donde se integra en el genoma.

La expresión de los genes nuevos (en condiciones naturales, los oncogenes que producen cáncer) da lugar a un crecimiento celular descontrolado y el consiguiente tumor. La ingeniería genética se ha valido de este mecanismo natural sustituyendo los genes cancerosos por otros que se consideran más interesantes. De ese modo, la bacteria, al transferir parte de su ADN, los inoculará en el núcleo de la célula.

Una vez insertados, los transgenes pueden dotar a las plantas de nuevas características, como la resistencia a herbicidas o patógenos, o bien la capacidad de producir determinadas sustancias que actúen como fármacos o incrementen las características nutritivas de la planta. Hasta hace relativamente poco, se pensaba que sólo los Agrobacterium eran capaces de desarrollar el proceso que se conoce como transferencia horizontal de genes. En la actualidad, se ha descubierto que existen otras bacterias capaces de hacerlo.

Y eso, más o menos, viene a ser todo: una bacteria que causa tumoraciones en las plantas inyecta sus propios oncogenes en el genoma de la planta receptora. En lugar de ello, los seres humanos hemos encontrado la manera de sustituir esos genes cancerígenos por otros que no sólo mantienen viva a la planta, sino que pueden resultar beneficiosos en un futuro inmediato. ¿Hasta qué punto puede considerarse este método como antinatural? ¿Cabe pues considerar los alimentos modificados genéticamente como un producto artificial?

La ciencia nos ha permitido alejarnos de nuestros antepasados homínidos así como del resto de los primates. Con todo, no cabe duda de que, si alguien quiere comportarse como un mono, nadie se lo prohibe. Algunos de los sectores más radicales del ecologismo predican precisamente la vuelta a la naturaleza. Sin embargo, no estaría de más explicar a algunos de sus representantes que un déficit grave de betacaroteno puede causar una ceguera irreversible a un niño de diez años pero que, gracias a la biotecnología, se ha desarrollado una variedad de arroz que evita el problema.

Fuente Consultada:
Guinness Publish Limited Fascículo N°21 – La Nación
Biotecnología Por Todos Lados Alberto Díaz – Editorial Siglo XXI
Las Mentiras de la Ciencia Dan Agin

LA PLACENTA-CORDÓN UMBILICAL-LIQUIDO AMNIOTICO

LOS ANEXOS EMBRIONARIOS: Ya se ha visto que en la formación del embrión interviene sólo una pequeña parte del huevo. El resto constituye los anexos embrionarios, es decir, los órganos destinados a proteger, alimentar y oxigenar al embrión, más tarde feto, durante toda su vida intrauterina. Estos anexos son la placenta, el cordón umbilical, las membranas y el líquido amniótico.

LA PLACENTA: La placenta es el órgano de intercambio entre la madre y el embrión, más tarde feto. Durante la anidación, el huevo se recubre de vellosidades, las vellosidades coriales, parecidas a las pequeñas raicillas de las plantitas. Pronto, el huevo, hundido en la mucosa, comienza a engrosar, a formar una protuberancia en el útero, y las vellosidades desaparecen, salvo en la zona de contacto del huevo con la mucosa.

placenta

Esta zona de contacto, de forma circular, constituirá la placenta. Las vellosidades se hunden en los lagos sanguíneos, los vasos sanguíneos de la madre, que se comunican entre sí y son alimentados por las arterias maternas. Las mismas vellosidades se hallan recorridas por arterias y venas. La sangre de la madre circula por los lagos sanguíneos, la del feto por las vellosidades que lo alimentan.

Entre ambas sangres hay una membrana que hace las veces de filtro. Así, a pesar de la interdependencia íntima entre los elementos maternos y los fetales, las dos circulaciones no se comunican directamente. Ambos sistemas son cerrados. Por esta razón, el hijo podrá tener un grupo sanguíneo diferente de la madre, e incluso antagónico, cuando, por ejemplo, tienen sangres con factores Ah contrarios.

El embrión, que tras ocho semanas de vida intrauterina toma el nombre de feto, recibe sus recursos a través del cordón umbilical que le une a la placenta, que a su vez se halla adherida al útero por las vellosidades. Al principio del embarazo, la placenta desempeña a la vez los papeles de pulmones, riñones, estómago, hígado, intestinos y glándulas hormonales, asegurando así todas las funciones vitales. Pero, a medida que va creciendo, las vísceras del feto van adquiriendo una cierta autonomía, con lo que la función de la placenta disminuye.

Cordón Umbilical, Membranas y Líquido Amniótico El cordón umbilical, que va alargándose progresivamente hasta alcanzar los 50 cm. en el momento del nacimiento, une al feto con la placenta. Es un conducto de alrededor de 1,5 cm. de diámetro, retorcido en espiral, recorrido por dos arterias y una vena que aseguran la circulación del oxígeno, de los alimentos y la evacuación de los desechos.

El feto se encuentra en una bolsa hermética formada por dos membranas de protección transparentes y muy resistentes: por el exterior el cordón, por el interior el amnio, que cubre la cara interna de la placenta, envuelve el cordón y continua en el ombligo. En esta bolsa hay un líquido claro, transparente, rico en sales minerales, el líquido amniótico, cuyo origen es aún mal conocido, que asegura la hidratación del feto, al tiempo que le permite agitarse y le protege contra las infecciones y los traumatismos.

EL FETO Y LAS EMOCIONES MATERNAS : A partir del sexto mes el feto es sensible a los estímulos externos. En este período se han constatado en el feto reflejos condicionados al ruido. Un prematuro de seis a siete meses es capaz de reaccionar de forma diferente ante alimentos salados o dulces y ante ciertos olores. El feto distingue la luz a los siete meses. Percibe también las sensaciones de calor o de frío y es sensible a la presión. Así pues, antes de nacer, el niño ya ha experimentado determinadas sensaciones con la ayuda de sus cinco sentidos. Entre las primeras de estas sensaciones que experimenta se hallan sin duda aquellas de lo que es agradable y desagradable.

Estas primeras actividades psíquicas del feto son, según el profesor Minkowski, “la base indeleble sobre la que se insertan todas las impresiones ulteriores”. La creencia popular dice que las envidias, las esperanzas o los temores de la madre influyen sobre el niño que pronto nacerá. Es cierto que, al alimentar la circulación sanguínea de la madre la del hijo, las modificaciones químicas ocasionadas por el estado psicológico de la madre repercuten de una manera sensible en el feto.

Así, cuando la madre se encuentra en un estado nervioso deficiente, cuando está agotada o cuando experimenta sensaciones demasiado fuertes, su equilibrio hormonal se modifica y, a través de ella, el del feto. Es por esto por lo que es deseable que una mujer encinta lleve, en la medida de lo posible, una vida tranquila y regular, tanto física como psíquicamente. Es difícil medir con exactitud los efectos que pueden producir los estados psicológicos y las emociones de una futura madre sobre el hijo que lleva. Sin embargo, se ha constatado un nexo de unión entre el psiquismo de la madre y las reacciones del feto. Esta vida intrauterina y las impresiones que deja sobre un ser aun virgen apasionan actualmente a los investigadores.

¿SE PUEDE DETECTAR LA PRESENCIA DE GEMELOS? : Teóricamente se puede saber a finales del cuarto mes si es previsible un nacimiento de gemelos, es decir desde que se pueden oír los latidos del corazón. Al final del quinto mes, el ginecólogo puede notar al tacto dos cabezas. Pero este examen es difícil ya que en el caso de gemelos el líquido amniótico es más abundante; el útero es más grueso, está más tenso, y su contenido es difícilmente controlable. Un embarazo de gemelos, desde el momento que se supone o se diagnostica, requiere una vigilancia extremadamente atenta y unos cuidados físicos en la madre para evitar un parto prematuro.

¿GEMELOS VERDADEROS O FALSOS?: En ocasiones, el ovario libera dos óvulos a la vez o. que los dos ovarios actúen simultáneamente. En estos casos, pueden quedar fecundados los dos óvulos, dando lugar a gemelosbivitelinos o falsos gemelos. Estos gemelos son en realidad niños concebidos al mismo tiempo, pero que tienen cada uno un patrimonio hereditario propio; pueden ser, por consiguiente, de sexos diferentes. Los verdaderos gemelos, por el contrario, se originan a partir de un único óvulo fecundado por un solo espermatozoide. siendo la escisión del huevo en dos partes idénticas la que da lugar a dos embriones que tienen el mismo patrimonio hereditario. Los verdaderos gemelos son pues siempre del mismo sexo y se parecen hasta en los más mínimos detalles.

LA DETECCIÓN DE LAS ANOMALÍAS CROMOSÓMICAS Los trabajos realizados por un pediatra de Chicago,Henry Nadler, hechos públicos en el congreso médico de la Haya de 1969, han puesto a punto un método que permite detectar ciertas anomalías hereditarias desde el comienzo del embarazo. Hacia el tercero o cuarto mes del embarazo, se toma una pequeña cantidad de líquido amniótico por simple aspiración a través de la pared abdominal. En este líquido flotan células provenientes del feto, que se ponen en cultivo en un medio adecuado y se multiplican.

Un estudio profundo permite identificar, si las hubiese, ciertas taras cromosómicas o ciertas enfermedades del metabolismo, es decir deficiencias en las transformaciones que se operan en el organismo. En efecto, en el momento de la fecundación puede ocurrir un accidente cromosómico. Un cromosoma de menos o, por el contrario, un cromosoma suplementario, será causa de un desequilibrio que impida el normal desarrollo del embrión. La primera célula estará al principio desvirtuada y todas las otras, nacidas de ella, llevarán la misma anomalía, con lo que el niño nacerá “diferente”. Uno de los ejemplos más típicos de estos accidentes cromosómicos es el del mongolismo o trisomia 21.

En 1959, los profesores Turpin. Lejeune y Gautier descubrieron que los pequeños retrasados mentales, a los que corrientemente se les llama mongólicos, poseían 47 cromosomas en lugar de 46. La medicina se encuentra todavía impotente ante los casos de aberración cromosómica y ciertos médicos son partidarios del aborto terapéutico. En los casos de enfermedades del metabolismo, es a menudo posible prescribir un tratamiento precoz de la madre.

 

La Terapia Genética Manipulación de Genes Biología Celular

La terapia genética es la técnica que permite la localización exacta los posibles genes defectuosos de los cromosomas y su sustitución por otros correctos, con el fin de curar las llamadas «enfermedades genéticas», entre las que se encuentran muchos tipos de cáncer.

El desarrollo de la terapia genética se ha apoyado en los avances científicos experimentados por determinadas ramas de la biología, como la genética, la biología molecular, la virología o la bioquímica. El resultado es una técnica que permite la curación de casi cualquier patología de carácter genético.

En el desarrollo de dicha terapia hay que tener en cuenta diversos factores. Por un lado, es necesario saber cuál es “tejido diana”, es decir, el que va a recibir la terapia. En segundo lugar, conocer si es posible tratar in situ el tejido afectado. Igualmente importante resulta determinar el que facilita el traspaso de un gen exógeno a la célula, es decir, qué vector se ha elegir para el desarrollo del nuevo material genético que posteriormente se introduce el tejido. Finalmente, es preciso estudiar al máximo la eficacia del gen nuevo y saber que respuesta tendrá el órgano o tejido «hospedador», con la entrada del gen modificado.

La finalidad principal de los estudios sobre terapia génica en el ámbito de la medicina es conseguir los mejores resultados tanto en prevención como en investigación, diagnóstico y terapia de las enfermedades hereditarias; sin embargo, esta manipulación del material genético puede ser utilizada en ingeniería genética, con el fin de mejorar determinadas características de los seres vivos.

Los inicios de la terapia génica

Los primeros trabajos en terapia génica se realizaron con ratones, mediante tecnica del ADN recombinante, que consiste en introducir el ADN extraño en los embriones, de forma que dicho ADN se expresa luego completamente, a medida que desarrolla el organismo. El material genético introducido se denomina transgén; los individuos a los que se les aplica esta técnica reciben el nombre de transgénicos. Con la introducción de estos transgenes se puede lograr la identificación de zonas concretas del material genético para llevar a cabo su cloonación, con el fin de que solo se vean afectadas un tipo específico de células.

Vectores

Los vectores virales agrupan cuatro tipos de virus: retrovírus, adenovirus, virus adnoasociados y herpesvirus; existen también vectores no virales, como el bombardeo con partículas, la inyección directa de ADN, los liposomas catiónicos y la transferencia de genes mediante receptores.

Vectores virales

Los retrovirus comprenden una clase de virus cuyo material genético es una cadena sencilla de ARN; durante su ciclo vital, el virus se transcribe en una molécula bicatenaria de ADN, gracias a la acción de la enzima reverso transcriptasa, que se integra en el genoma de la célula huésped sin aparente daño para ella. La mayor parte de los retrovírus a excepción del HIV, sólo se pueden integrar en células con capacidad para replicarse, lo cual restringe su uso. Sin embargo, se pueden desarrollar en grandes cantidades y su expresión en la célula hospedadora se realiza durante largos periodos de tiempo. Los adenovirus son un conjunto de virus con ADN lineal de cadena doble. Los vectores de adenovirus son más grandes y complejos que los retrovirus, pues en su construcción solamente se elimina una pequeña región del material genético vírico. Su ciclo de infección, que comprende de 32 a 36 horas en un cultivo celular conlleva en primer lugar la síntesis de ADN de la célula y, posteriormente la sintesis y ensamblaje del ADN y las proteínas víricas. Las infecciones de estos virus en seres humanos están asociadas a enfermedades benignas, como la conjuntivitis.

La principal ventaja de su utilización en la terapia génica es que se pueden producir en grandes cantidades y transfieren de forma muy eficaz el material genético a un número elevado de células y tejidos, aunque el hospedador parece limitar la duración de la expresión del nuevo material genético.

Los virus adeno-asociados son muy pequeño no autónomos y con ADN lineal de cadena sencilla. Para la replicación de estos virus es necesaria la confección con adenovirus. La inserción del material genetico de los adenovírus asociados se suele producir en regiones del cromosoma 19. Los vectores que se forman con este tipo de virus son muy simples, no pueden exceder en mucho la longitud del ADN viral, aproximadamente 4.680 nucleótidos, y son capaces de expresarse a largo plazo en las células que no se dividen; sin embargo, la respuesta que producen en la célula hospedadora es menor que la que se ocasiona con el tratamiento con adenovirus y es difícil la producción de este vector en grandes cantidades. Los herpesvirus poseen un material genético compuesto por ADN de doble cadena lineal, con un tamaño aproximado de 100 a 250 Kb.

Presentan variaciones en cuanto al tamaño y organización del genoma, contenido genético o células sobre las que actúan. Pero por regla general, este tipo de  de virus son muy útiles, pues es posible insertar en su genoma grandes cantidades de ADN extraño y llevar a cabo durante largos periodos de tiempo infecciones latentes en la célula hospedadora, sin ningún efecto aparente sobre ésta. En la clase de los gamma-herpesvirus como el virus de Epstein-Barr, se pueden producir infecciones latentes en células en  división, de modo que el material genético que lleva insertado el virus se replica conjuntamente a la división celular y se hereda en toda la nueva progenie de células. El inconveniente que presentan estos virus es que están asociados a daños linfoproliferativos, con lo cual, para su uso como vectores es necesario identificar estos genes y eliminarlos, manteniendo únicamente aquellos que permitan la replicación del virus y el mantenimiento del plásmido viral. Hasta la fecha, el uso fundamental de los herpesvirus en la terapia génica se limita al empleo in vivo del herpes simples (HSV).

Vectores no virales

El bombardeo de partículas constituye una técnica efectiva de transferir genes tanto in vitro como in vivo. En este método físico el plásmido o porción de ADN es recubierto en su superficie por gotas de oro o tungsteno, de 1 a 3 micras de diámetro. Estas partículas, aceleradas por una descarga eléctrica de un aparato o por un pulso de gas son «disparadas» hacia el tejido. El éxito de esta técnica puede estar asegurado en los procesos de vacunación. Otra alternativa es la inyección directa del ADN o ARN puro circular y cerrado covalentemente, dentro del tejido deseado. Este método económico, y un procedimiento no tóxico, si se compara con la entrega mediante virus. Como desventaja fundamental hay que señalar que los niveles y persistencia de la expresión de genes dura un corto periodo de tiempo.

Esta tecnologia puede tener potencial como un procedimiento de vacunación y como e genes a un nivel bajo. Los liposomas catiónicos consisten en la mezcla de un  lipido catiónico de carga positiva y varias moléculas de ADN con carga negativa debido a los fosfatos de la doble hélice.

Este tipo de  vectores se han usado en el tratamiento de la fibrosis sistica y en las enfermedades  vasculares. Se pueden realizar transferencias de estos vía catéter, aunque su uso es limitado, dedido a la baja eficacia de transfección del material genético contenido en este complejo a la célula hospedadora ya su relativa toxicidad.

Un problema que se plantea con las técnicas anteriores es que el vector alcance realmente su objetivo y no quede diseminado por el organismo. Por ello existe un procedimiento que consiste en introducir, junto al material genético que queremos transferir, moléculas que puedan ser reconocidas por los receptores de la célula diana. Estas moléculas pueden ser azucares, péptidos, hormonas, etc. y su ventaja respecto a otros modelos es que se establece una interacción muy específica, como la interacción transportador/célula, y no muy inespecífica como la que se verifica entre las cargas iónicas.

Experimentos en animales

Los experimentos con animales conforman una parte fundamental en el estudio de cualquiera de las aplicaciones de terapia génica; sus dos objetivos principales son el análisis de la seguridad del sistema de vectores y el estudio de la eficacia de la transferencia de genes.

El efecto de la dosis y su duración es comprobado en varias especies, incluyendo primates y otros animales que sean hospedadores para el virus salvaje (por ejemplo, las ratas del algodón se usan para el estudio de adenovirus). Se analiza la difusión de secuencias vitales, especialmente a las gónadas, y cualquier efecto adverso, como la inflamación tras la administración del vector.

El propósito de estos ensayos no es mostrar que el vector no produce efectos adversos —cualquier clase de droga tiene esa capacidad en determinada dosis—, sino precisar el tipo de suceso adverso que podría esperarse si los humanos estuvieran expuestos al vector, y fijar las posibles dosis que pueden acarrear estos sucesos. Para una enfermedad genética, un ratón con un gen eliminado o un animal con el fenotipo apropiado sería válido en este tipo de estudio.

Terapia génica en seres humanos

Esta terapia está destinada al tratamiento de enfermedades infecciosas y auto inmunes, Las estrategias se basan en la eliminación de poblaciones de células infectadas con virus, como el HIV, mediante administración directa de moléculas de ácidos nucleicos o a través del desarrollo de vacunas. En la terapia contra el cáncer, se puede actuar con diferentes objetivos. Si se opera sobre las células del sistema inmunitario, se manipulan ex vivo las células efectoras antitumorales del sistema inmune. Estas células son modificadas genéticamente y reimplantadas con el fin de liberar dentro del tumor el producto de los genes exógenos, como las cítoquinas.

Sobre las células hematopeyéticas o formadoras de sangre se actúa incorporando los llamados genes MDR, que confieren mayor resistencia a las altas aplicaciones de quimioterapia en el paciente. Si se actúa directamente sobre las células tumorales, se introducen factores genéticos que provoquen la muerte o apoptosis de las células tumorales o aumenten la respuesta del sistema inmunitario antitumoral del paciente.

Otro de los campos más promisorios de las terapias génicas es el de las inmunoterapias y la fabricación de vacunas biotecnológicas.

Recordemos que nuestro organismo está sometido a múltiples agresiones de parásitos, bacterias y virus. El sistema inmunitario debe clasificar a esos agresores y armar una respuesta efectora capaz de eliminarlos.

■ En el caso de las bacterias extracelulares y de sus productos tóxicos, la respuesta eficaz consiste en la producción de anticuerpos opsonizantes o neutralizantes.

■ Si se trata de bacterias intracelulares (como los micoplasmas) que se replican en el interior de los fagosomas, la respuesta más contundente corre a cargo de las células T que activan los fagocitos en los procesos de hipersensibilidad retardada.

■ Por último, ante una infección vírica, si bien los anticuerpos específicos podrían limitar la difusión del virus a otras células, sólo una respuesta citotóxica (por los linfocitos T citotóxicos) acabará con las células infectadas y erradicará el virus.

Con la vacuna quedamos expuestos a “un material biológico” que imita al agente infeccioso. Por eso, el sistema inmunitario desencadena la resistencia ante el patógeno y lo memoriza, sin experimentar la infección ni la enfermedad. El proceso se asemejaría a introducir en el organismo un “chip” de memoria con determinadas instrucciones. Para vacunar contra un patógeno, se inocula en el organismo un microorganismo muerto (vacuna muerta), un microorganismo vivo pero incapacitado para desencadenar la enfermedad (vacuna viva atenuada) o una porción purificada del patógeno (vacuna subunitaria).

A partir de la Ingeniería genética y la Biotecnología, se perciben tres áreas prometedoras en el campo de la vacunación: la administración de vacunas a través de las mucosas, las vacunas de ADN y las vacunas terapéuticas.

Éstas nuevas técnicas permitirán curar enfermedades como la hepatitis B, el papilomavirus, el herpes genital e incluso el sida. La Biotecnología está proporcionando, entonces, un potencial ilimitado para el desarrollo de nuevas vacunas y, con ello, se está ampliando el campo de acción de la vacunación, además de presentar vehículos efectivos para el tratamiento de determinados tumores y enfermedades virales, lo que puede cambiar la relación del ser humano con las enfermedades del próximo siglo.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe) – Wikipedia – Enciclopedia de la Vida Tomo I.

Modelos de Vida Sacrificadas y de Coraje Injusticias de la Vida

La Chica de Qatif – Una Condena Brutal I
Adriana Macias – Otro Ejemplo de Superación Humana
Amina Lawal – Una Condena Brutal II
Ramon Sampedro – Una Atroz Espera
Qian Hongyan – La Nena “Pelota de Basquet”
Dede Koswura – “El Hombre Árbol
Mario Capechi – De Mendigo a Premio Nobel
Joseph Merrick – El Hombre Elefante
Pistorius Oscar – El Atleta Sin Piernas
Nguyen Thi Phuong Envejecimiento Prematuro

EJEMPLOS DE VIDA: Coraje

“El coraje es el precio que exige la vida para garantizar la paz.”
AMELIA EARHART

El coraje consiste en descubrir la fuerza interior y el valor que se requieren siempre que uno ha de enfrentarse al peligro, a la dificultad o a cualquier oposición. El coraje es la energía que subyace en todas las grandes acciones y la chispa que enciende los primeros pasos del bebé hacia su crecimiento. Reside en las profundidades de cada uno de nosotros, listo para entrar en el juego en esos momentos en que necesitas progresar rápidamente o abrirte paso frente a lo que parecen barreras infranqueables. Es la fuerza intangible que te empuja hacia delante en tu viaje.

Se necesita valor para aceptar la idea de que lo que haces con tu vida depende de ti, y también para obrar conforme a tus necesidades. Puedes aprender cómo acceder a tu coraje cavando muy hondo dentro de ti y accionando cualquier conexión espiritual que te sostenga. ¿Qué te mueve a actuar? Para algunos es la creencia en un poder superior, para otros puede ser la meditación o una música inspiradora, y para algunos otros quizá la gran literatura pasajes de obras espirituales. Independientemente de cual sea tu conexión con la fuente divina, cultívala, pues tendrás que recurrir a ella en esos momentos en los que .el coraje sea necesario.

Hay veces, por supuesto, en que tal vez seas incapaz de localizar esa reserva de valentía almacenada en tu interior. En esos casos es cuando necesitas buscar el apoyo de los seres queridos que te rodean. Tú puedes tomar prestado de estas personas, que creen ciegamente en ti, el ánimo que necesitas para superar los momentos de amnesia temporal en los que te has olvidado de tus propias habilidades y de tu tenacidad.

El coraje se aprende en el momento que, impulsado por la fe, entras en acción. Recuerdo cuando aprendí a bucear siendo una niña. Durante semanas estuve sentada en el borde del trampolín de la piscina municipal intentando hacer acopio del coraje necesario para hundir la cabeza en el agua. Mi padre estuvo al lado de la escalera durante tres sábados dándome ánimos para hacerlo. Él me enseñaba una y otra vez cómo tenía que hacerlo, pero yo aún tenía miedo. Era un temor sin sentido, porque yo sabía que no me haría daño y además tampoco me importaba mucho si lo hacía mal. Supongo que simplemente tenía ese miedo que sobrecoge a menudo a los humanos cuando están a punto de sumergirse, ya sea en sentido metafórico o I itera I, en lo desconocido.

Finalmente llegó el día en que me di cuenta de que podía mentalizarme a mi gusto y recibir el apoyo incondicional de mi padre, pero que en última instancia era yo quien tenía que decidirme y lanzarme al agua. Subí la escalera una vez más, permanecí de pie en ese borde del trampolín que ya me era tan familiar, recé una pequeña oración y me tiré. No fue una inmersión perfecta, pero era indiscutiblemente una inmersión. No sonaron trompetas celestiales anunciando la gloria de mi logro, pero en aquel momento aprendí la valiosa lección del coraje, que ha permanecido en mí desde entonces.

¿Cuáles son los miedos de tu camino? Sácalos a la luz para que pierdan su poder sobre ti. Lo único que hacen los temores, tanto los reales como los imaginarios, es impedir tu desarrollo. Destiérralos para que puedas aprender la lección del coraje y crear una vida acorde con tus deseos.

Fuente Consultada: El Juego de la Vida Chérie Carter Scott

La Revolucion Cientifica del siglo XX: Descubrimientos y Avances Cientìficos

La Revolución Cientifíca del Siglo XX:

NECESIDAD DE LA TEORÍA CIENTÍFICA: De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX.

Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso.

A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables.

Así, sin estar precedida por una comprobación empírica, se formuló la teoría de la Relatividad; la física del siglo XX no construye sus estructuras sobre leyes sino sobre teorías, con lo que incluso desde el punto de vista gnoseológico su posición es revolucionaria. La teoría de la Relatividad de Einstein y la teoría cuántica de Planck constituyen los dos capítulos fundamentales y al mismo tiempo el punto de partida para dos concepciones de la ciencia física.

DOS TEORÍAS SOBRE LA REALIDAD FÍSICA

Einstein, al continuar los estudios de Michelson y Morley sobre la luz, cuya velocidad consideraba una constante del universo, llegó a concluir que el tiempo es una variable que depende de la velocidad del espectador (Teoría de la Relatividad Restringida, 1905). Diez años más tarde consiguió medir la relación entre masa y energía (E= mc2); un cuerpo que irradia energía pierde masa, de donde deduce que la masa puede convertirse en energía y su equivalente es la cifra fabulosa obtenida al multiplicar su masa por el cuadrado de la velocidad de la luz (Teoría de la Relatividad General, 1915). Todas las futuras investigaciones sobre el átomo partieron de estas geniales formulaciones del joven científico alemán, que se trasladó posteriormente a Estados Unidos y adquirió la nacionalidad norteamericana.

Einstein demostró que el espacio es curvo y que la curvatura se intensifica en la proximidad de los cuerpos pesados, con lo que desmontó las concepciones newtonianas del espacio y justificó las geometrías no euclidianas, ya que en un espacio curvo las paralelas pueden unirse y todos los axiomas y postulados de Euclides sustituirse por otros. Al fotografiar la curvatura de la luz de las estrellas abrió nuevos horizontes interpretativos sobre la naturaleza de la luz y se encontró una prueba de la curvatura del espacio. Plank formuló en 1900 su teoría cuántica; de la misma manera que la materia es discontinua y está formada por una red de átomos, la energía irradia de forma discontinua en forma de cuanto o corpúsculos de valor variable según la intensidad de la radiación.

En 1924 Louis de Broglie fundó la mecánica ondulatoria, con la que concilió la teoría tradicional de la luz como onda continua y la cuántica de corpúsculo discontinuo. Las dos teorías suponen dos interpretaciones de la realidad física; la teoría cuántica la considera discontinua o corpuscular, la de la Relatividad la considera continua y constituida por una sustancia única espacio-tiempo que puede adoptar formas diversas. La teoría cuántica pretende conocer la naturaleza en términos observables, la Relatividad General en términos no observables, en cierto modo simbólicos, al afirmar que la naturaleza es una sucesión de formas geométricas de una sustancia única espacio-temporal.

INVESTIGACIONES SOBRE EL ÁTOMO

La concepción clásica del átomo como partícula indivisible había sido rechazada por los físicos del siglo XIX; desde finales de siglo hasta la actualidad los avances en el reconocimiento de las partículas elementales han sido constantes; Thompson, Rutherford, Bohr y De Broglie consiguieron trazar mapas nuevos en la estructura atómica. Thompson descubrió los electrones y demostró así que el átomo no es la partícula última; con las investigaciones de los esposos Curie sobre las radiaciones se inició otro camino que indagaba la energía contenida en el átomo. Rutherford diseñó un mapa del átomo en el que un núcleo, cargado con electricidad positiva, está rodeado por electrones con carga negativa.

cuadro del atomo

Esta imagen cobró movimiento en los estudios del danés Niels Bohr, quien postuló que los electrones giran alrededor del núcleo como si se tratara de un sistema solar en miniatura; el número y disposición de los electrones explicaba las propiedades químicas de los cuerpos y la sucesión de los elementos establecida a mediados del siglo XIX por Mendeleiev. Finalmente, De Broglie probó que las órbitas de los electrones no seguían una línea elíptica sino ondulatoria, oscilante, y que las ondas y los corpúsculos eran aspectos de una misma realidad. Otra línea de investigación se centró en la desintegración del átomo y en la energía que puede liberar. Rutherford rompió un núcleo de nitrógeno en 1919, al bombardearlo con partículas alfa mediante descargas eléctricas. Posteriormente, se descubrieron nuevos elementos en el átomo. Los neutrones eran obtenidos por Chadwick en 1932 al bombardear berilio con partículas alfa; Anderson el electrón positivo (positrón) y Neddermeyer el mesón, enlace entre los protones positivos y los neutrones.

En la década de los años 30 se investigó la radiactividad. Joliot Curie descubrió la radiactividad artificial, demostrando que los átomos bombardeados por neutrones se vuelven radiactivos. En 1936, Fermi obtuvo con este sistema cuerpos más pesados que los naturales y dos años después Hahn y Strassman descubrieron la posibilidad de la reacción en cadena, al comprobar que en los núcleos pesados como el del uranio de protón puede liberar varios neutrones, que al chocar con los nuevos núcleos los hacen estallar y proyectan nuevos neutrones; de esta forma un gramo de uranio puede liberar una energía equivalente a 2,5 tm de carbón. En 1939 con un ciclotrón se consiguió la fisión del átomo y la posibilidad de obtener reacciones en cadena en gran escala. La bomba atómica utiliza el uranio y la de hidrógeno el helio para producir esta reacción en cadena que libera una energía fantástica.

LAS ESCUELAS PROBABILISTA Y DETERMINISTA

Las teorías cuántica y de la Relatividad y las investigaciones sobre el átomo constituyen los capítulos más importantes de la nueva física. Pero los físicos se han sumido en incertidumbres que podríamos llamar de tipo metafísico, se han planteado en qué medida sus investigaciones se mueven en un nivel subjetivo o por el contrario les permiten un conocimiento no deformado de la realidad física. Dos escuelas, probabilista y determinista, afirman, respectivamente, la incertidumbre del conocimiento y la certeza de las leyes físicas.

Los probabilistas, con Bohr, Heisenberg y Dirac, parecieron en muchos momentos haber conseguido romper el “determinismo” de la física “clásica”. En 1925 Heisenberg planteó el dilema que fundamenta la postura probabilista, la imposibilidad de conocer simultáneamente la velocidad y posición de un electrón; si se conoce exactamente su posición, al obligarle a pasar por la pequeña abertura, no se conoce exactamente su velocidad al atravesarla, de lo que resulta que en un instante posterior será imposible precisar su situación. Con el principio de indeterminación Heisenberg afirma que el “espectador” modifica la realidad física al estudiarla, al aproximarse a contemplarlos deterministas se encuentran en minoría pero disponen de figuras tan gloriosas como Einstein, Schródinger, Blockinzev o De Broglie. La regularidad de las leyes físicas y la posibilidad de conocerlas con seguridad se resumen en la conocida fase de Einstein: “Dios no juega a los dados”. La Escuela de Copenhague, dirigida por Niels Bohr, se convirtió en la defensora del probabilismo, mientras la Escuela de París, dirigida por Louis De Broglie, ha sostenido el determinismo arguyendo que los probabilistas suministran una descripción incompleta de los fenómenos microfísicos. Como vemos, los científicos no se han limitado a escudriñar en los secretos del universo físico, sino que se han planteado la relación del hombre con ese universo desde atalayas “meta-físicas”.

EL CONOCIMIENTO DEL UNIVERSO

UNA VENTANA ABIERTA AL ESPACIO EXTERIOR

Capítulo fascinante de la ciencia del siglo XX es el cubierto por los progresos en el conocimiento del universo, posibilitados por la innovación de los instrumentos de observación y por la formulación de hipótesis filosóficas y físicas —la teoría de la Relatividad cambió sustancialmente la imagen del espacio— y modelos matemáticos. Hasta el siglo XVIII la astronomía se reducía al estudio del Sistema Solar y las estrellas se utilizaban como referencia, fondo invariable. Salvo Laplace, las teorías en boga hasta mediados de este siglo fueron elaboradas por filósofos; la más conocida es la de Immanuel Kant: Historia universal de la naturaleza y teoría del cielo (1755), cuyas ideas sobre el origen del Sistema Solar ejercieron prolongada influencia. Entre 1780 y 1820 se inició el estudio de nuestra galaxia, la Vía Láctea.

En 1842 el austríaco Doppler anunció un principio de fundamental importancia en astronomía: la luz de las estrellas produce un desplazamiento del espectro hacia el violeta cuando ésta se acerca, hacia el rojo cuando se aleja; con él se pudo medir la velocidad radial de las estrellas; en 1912 Slipher obtuvo el espectro de la nebulosa de Andrómeda y midió su aproximación a la Tierra a una velocidad de 200 km por segundo.

LA DIMENSIÓN DE LAS GALAXIAS

El conocimiento de nuestra galaxia recibió un impulso decisivo en 1918, cuando Harlow Shapley, a partir de los cúmulos globulares que se encuentran al Norte y al Sur del plano galáctico, consiguió determinar la posición y distancia del centro de gravedad de esta inmensa concentración de estrellas.

galaxia lejana

El Sol se encuentra situado en una posición marginal dentro de la galaxia, a 30.000 años luz del centro; de repente las soberbias geocéntricas y heliocéntricas quedaban barridas. Según los censos estelares se pensaba que disminuía la densidad de las estrellas en todas direcciones a partir de la Tierra, pero desde 1930 sabemos que es una simple impresión producida por la absorción de la luz por el polvo interestelar.

El diámetro de la galaxia es del orden de 100.000 años luz, lo que aumentaba espectacularmente las dimensiones hasta entonces concebidas, que no iban más allá de distancias diez veces menores. A continuación, comenzaron a medirse las velocidades de los astros en el espacio; el holandés Ort demostró que el Sol efectúa revoluciones circulares en torno al centro de la galaxia a 215 km por segundo, y posteriormente otros astrónomos, basándose en esta traslación solar, consiguieron determinar el orden de magnitud de la masa total de la galaxia en 200.000 millones de veces la masa del Sol. Estas dimensiones eran 2.000 veces superiores a las calculadas por Herschel, el primer astrólogo que, a finales del siglo XVIII, había intentado valorar el tamaño de la galaxia.

Se habìa llegado a dimensiones Impensables, pero todavía aguardaban nuevas sorpresas. La inmensidad de nuestra galaxia había hecho creer que ella sola constituía el universo. En 1924 Hubble demostró que nuestra vecina, Messier 31 de Andrómeda, constituía otra galaxia de estructura similar a la Vía Láctea pero mayor y más compleja, con estrellas dobles situadas a 2 millones de años luz. Por medio de los radiotelescopios se pudo comprobar la existencia de mil millones de estos paquetes de estrellas que llamamos galaxias, compuesto cada uno por miles de millones de cuerpos espaciales. Estas familias que pueblan el espacio son de diversas formas, esferoidales, elipsoidales, lenticulares, o prolongadas a modo de brazos, como la Vía Láctea.

Tras medir las dimensiones, otro capítulo atrajo la atención de los astrónomos: estos cuerpos espaciales se mueven a velocidades fantásticas dentro de las galaxias, mientras se produce otro movimiento de desplazamiento relativo entre éstas. Se comprobó primero, por el desplazamiento del espectro hacia el rojo, que las galaxias se alejaban del espectador terrestre; este alejamiento fue comprobado por Slipher entre 1912 y 1922. Pero la velocidad de desplazamiento no era constante; en 1928 Hubble publicó la ley de los desplazamientos espectrales, que afirma la relación distancia-velocidad; la velocidad de fuga parece aumentar con el alejamiento, 160 km por segundo por millón de años luz de distancia según la medida de Hubble, rebajada en la actualidad a 25 km por segundo. Se ha conseguido determinar la velocidad de más de mil galaxias, algunas se desplazan a 150.000 km por segundo, la mitad de la velocidad de la luz.

EL ORIGEN DEL UNIVERSO

el universo

Dimensiones, número de astros, velocidades de desplazamiento, alejamiento, todas las concepciones del universo han tenido que modificarse. En 1963 los objetos más lejanos cuyas distancias habían sido medidas se encontraban a 6.000 millones de años luz, pero entre las débiles imágenes captadas en Monte Palomar se sospechaba que podían encontrarse las correspondientes a galaxias que se situaban a 10.000 millones de años luz. Estas distancias introducen el factor tiempo en cosmología, porque el mensaje luminoso que recibimos corresponde a imágenes de otra época, incluso anteriores a la existencia de la Tierra, a la que se asignan 4,5 millones de años, de manera tal que el universo puede ser en la actualidad muy diferente a las imágenes que en este momento captamos.

¿Cómo es el universo?

Cada descubrimiento crea nuevas preguntas. ¿Se enfriará el Sol y morirá la Tierra de frío o, como parece más probable, se convertirá el Sol en una gigante estrella roja y achicharrará a todos los planetas de su Sistema? ¿Es la Tierra una curvatura del espacio? ¿Lo son todos los cuerpos celestes? ¿Qué es el espacio, qué respuesta

ha de darse tras la comprobación de que en las cercanías del Sol deja de ser euclidiano? ¿Qué geometría debe aplicarse al espacio? En 1917 Einstein demostró que la única posible era la de un espacio esférico de curvatura constante, cerrado, cuyo radio y cuya masa total podían obtenerse mediante fórmulas que propuso. Su modelo estable y estático ha planteado problemas casi insolubles, por lo que en 1922 Friedmann, matemático ruso, interpretando el efecto Doppler, se planteó la posibilidad de la modificación del radio del universo entre el instante de emisión de luz de una galaxia elevada y el instante de la observación; si el espectro se desplazaba hacia el rojo había que suponer que el universo se encontraba en expansión. Hemos indicado ya que así ocurre y que Hubble consiguió medir la velocidad de desplazamiento.

Otros teóricos aseguran que esta expansión es sólo una pulsación que será seguida de un período de contracción, con lo que el universo sería un enorme globo que se infla y desinfla periódicamente. La aportación de los teóricos (físicos y matemáticos) ha llegado a ser imprescindible, porque se nos plantea el problema de saber hasta qué punto la muestra de Universo que nos rodea resulta representativa. El modelo euclídeo de Newton, tanto tiempo útil, ha sido barrido desde el momento en que se abrió la ventana de las galaxias.

La teoría del Big Bang

big bang

La pregunta crucial se refiere al origen del universo. La teoría predominante en nuestros días es la denominada del Big Bang o explosión inicial. Su punto de partida se anda en la Teoría de la Relatividad General de Einstein. Un astrofísico, George Gamov, tras fechar esa explosión en un instante que se remonta a 15.000 millones de años, planteó la posibilidad de escuchar el eco de la misma cuando los instrumentos de medición permitieran acercarse a esa distancia. En 1964 dos radioastrónomos de los laboratorios Bell de Estados Unidos, Penzias y Wilson, que recibirían el premio Nobel en 1978, registraron un zumbido de fondo que posteriormente fue interpretado como el eco del Big Bang.

Otros científicos y desde 1992 el satélite COBE analizaron muestras de lo que se consideró la composición inicial del universo, concentraciones de hidrógeno y helio, a partir de las cuales se formarían estrellas y galaxias. Da la impresión de que se multiplican las pruebas del Big Bang, pero no todos los científicos aceptan esta teoría. Otro astrónomo eminente, Fred Hoyle, ha defendido la inexistencia de una explosión, afirmando que la materia se crea y destruye incesantemente en un universo estacionario. Doc. 3

El mejor procedimiento para elegir el modelo de expansión o el modelo estacionario consiste en estudiar la luz de los confines del universo, a miles de millones de años luz. En un universo en expansión esta luz sería “joven”, similar a la del momento de la explosión y diferente a la próxima a la Tierra; por el contrario, en un universo estacionario sería similar la luz próxima y la de los límites del universo.

DE LA VIDA A LA INTELIGENCIA ARTIFICIAL

EL MISTERIO DE LA VIDA

La bioquímica descubre y estudia los elementos químicos de la actividad vital y sus procesos o modalidades de acción. El descubrimiento de las enzimas, cuerpos químicos que actúan en procesos de fermentación, oxidación y fotosíntesis, fue seguido por el de las vitaminas, sustancias muy complejas, como la vitamina B, que contiene a su vez 15 sustancias. Con las vitaminas se completa la concepción de la enfermedad generada por un virus patógeno con el de enfermedad de carencia, como escorbuto, beriberi, raquitismo o enfermedades provocadas por la no presencia en el organismo vivo de alguna sustancia necesaria. Además de las adquiridas por alimentación, el organismo vivo produce sus propias sustancias, generadas por las glándulas endocrinas. Así, se ha descubierto la importancia de las hormonas que intervienen en el crecimiento de animales y plantas y en el funcionamiento preciso de los órganos: Ja insulina del páncreas, las hormonas del tiroides, las hormonas sexuales, etc.

Con el progreso de la bioquímica cambia la concepción de la vida, que es considerada como una estructura química peculiar, en la que el intercambio de elementos químicos es constante. Los componentes de lo vivo y lo no vivo son los mismos, la diferencia está en su ordenación, en su estructura. Teilhard de Chardin ha distinguido la acumulación exterior de elementos químicos que se produce en lo no vivo —así se forman los cristales, los minerales— de otro tipo de acumulación interna, que supone

Formas de vida extraterrestre

Pienso que las formas de vida de muchos mundos estarán compuestas en principio por los mismos átomos que tenemos aquí, quizás también por muchas de las mismas moléculas básicas, como proteínas y ácidos nucleicos; pero combinados de modos desconocidos. Quizás, si hay organismos flotando en las.densas atmósferas planetarias tendrán una composición atómica muy ‘parecida a la nuestra, pero es posible que carezcan de huesos y que, por lo tanto, no necesiten mucho calcio. Quizás en otros lugares se utilice un solvente diferente del agua. El ácido fluorhídrico nos podría servir bastante bien, aunque no hay una gran cantidad de flúor en el Cosmos; el ácido fluorhídrico causaría mucho daño al tipo de moléculas de que estamos hechos; pero otras moléculas orgánicas, como las ceras de parafina, por ejemplo, se mantienen perfectamente estables en su presencia. El amoniaco líquido resultaría un sistema solvente todavía mejor, ya que el amoníaco es muy abundante en el Cosmos. Pero sólo es liquido en mundos mucho más fríos que la Tierra o que Marte. El amoníaco es normalmente un gas en la Tierra, como le sucede al agua en Venus. O quizás haya cosas vivas que no tienen ningún sistema solvente: una vida de estado sólido donde en lugar de moléculas flotando hay señales eléctricas que se propagan.

una estructura más compleja, proceso al que el famoso pensador e investigador francés llama “complexificación interiorizante”. En el mismo sentido ha escrito Charón:

“Es muy posible que ese umbral que permite distinguir la Materia de lo Vivo sólo pueda ser descrito en términos de lenguaje topológico, que se refieran al espacio-tiempo. La Naturaleza, después de haber realizado todas las uniones posibles (por campos físicos) en nuestro espacio ordinario de topología plana (el de la Materia) había inventado la topología cilíndrica. Esta transformación exige, en principio, poca energía, ya que en ambos casos el espacio sigue siendo euclidiano, es decir, de débil intensidad de energía. Con la nueva topología cilíndrica pueden realizar-se bruscamente tipos de uniones posibles en la Materia. Además, las ondas electromagnéticas pueden permanecer encerradas (y, por tanto, disponibles) en este nuevo espacio. Salvamos así el umbral que separa la Materia de lo Vivo; las nuevas propiedades no tienen medida común con las antiguas: lo Vivo, con su topología diferente, constituye un auténtico universo en pequeño, paralelo al universo en que se distribuye y se pone la Materia”

Al conocimiento de los procesos vitales ha contribuido la investigación sobre la célula, a la que se ha consagrado una rama de la biología, la citología. Desde principios de siglo se realizaron cultivos de tejidos separados de su organismo y en 1933 el oftalmólogo ruso Filatov utilizó tejidos congelados en sus intervenciones quirúrgicas. Casi inmediatamente se consiguió mantener vivos órganos enteros separados de los organismos en que habían funcionado; en 1936 Carrel y Lindbergh hicieron vivir y funcionar durante varias semanas algunos órganos de mamíferos (ovarios, glándulas).

Otra línea de investigación atendió el estudio de los seres vivos más elementales, los virus. En 1935 Bochian consiguió sintetizar en el laboratorio uno de los más sencillos, el llamado virus del “mosaico del tabaco”. Se trata sin duda de seres vivos, ya que se reproducen y viven a expensas del medio en que se hallan, no obstante se discute su condición de organismo, parecen ser simples moléculas proteicas a las que se ha asignado la calidad de etapa intermedia entre la materia inanimada y viviente. El estudio de estos organismos inferiores, como los virus y las bacterias, ya más complejas, han permitido delimitar ciertas condiciones del origen de la vida, los elementos, presión y temperatura indispensables para el nacimiento de las operaciones específicas de lo vivo.

LA CIBERNÉTICA

En el campo de la electrónica, la física ha conseguido igualmente progresos revolucionarios, aplicados a la transmisión de señales (radio, televisión, satélites de comunicaciones), a la óptica (microscopios electrónicos, fotoelectricidad, cine). El láser, haz de ondas luminosas de intensidad mil veces superior a la de la luz solar, conseguido, por medio de emisiones estimuladas, por Maiman en 1960, está llamado a ser una de las maravillas del futuro y tiene aplicaciones ya en la medicina (cirugía de la retina, tumores cancerosos), en la industria y en la guerra (proyectiles dirigidos, aviones). Pero la aportación más importante de la electrónica es la construcción de ordenadores, que permiten la realización de complejas operaciones matemáticas en un tiempo mínimo y se han convertido en auxiliares imprescindibles para la exploración del espacio, utilísimos para la estadística y la manipulación de toda clase de datos en las complejas organizaciones de las sociedades industriales.

La primera calculadora electromecánica, construida por Howard Aiken, entró en servicio en 1944, era la Mark 1, que realizaba sus operaciones matemáticas mediante impulsos eléctricos cuya información procedía de cintas perforadas y cuyos resultados se obtenía también en perforaciones que finalmente se traducían en cifras. Luego, cálculos más rápidos y complicados se obtuvieron sustituyendo los relés por válvulas electrónicas; así se construyó el primer calculador electrónico, llamado Eniac. Mientras la Mark  necesitaba un tercio de segundo para hacer una suma de 23 cifras, la Data file, construida en 1957, puede leer varios millones de signos en milésimas de segundo.

El americano Norbert Wiener descubrió en 1948 la analogía entre el cerebro electrónico y el cerebro humano y la similitud de los impulsos eléctricos que transmiten la información y las órdenes entre el sistema nervioso del ser humano y los circuitos eléctricos; así nacieron máquinas eléctricas, robots que pueden funcionar según una lógica binaria, mientras la industria comienza a recorrer la investigación en este campo de la “electricidad pensante”. El fenómeno de la automatización, de la sustitución del trabajo humano por máquinas programables mediante las posibilidades de la electrónica, encierra profundas repercusiones sociales, anuncia un mundo en el que el trabajo de los hombres puede descargarse en máquinas, en un grado hasta hace poco tiempo insospechable.

Por primera vez disponemos ahora de medios para establecer contacto con civilizaciones en planetas de otras estrellas. Es un hecho asombroso que el radiotelescopio de 30 m de diámetro del National Astronomy and lonosphere Center, dirigido por la Cornell University en Arecibo, Puerto Rico, fuese capaz de comunicarse con otro idéntico situado en cualquier lugar de la Vía Láctea. Disponemos de los medios de comunicarnos no sólo venciendo distancias de centenares de miles de años luz, sino que podemos hacerlo de esa manera en un volumen que contenga centenares de miles de millones de estrellas. La hipótesis de que existen civilizaciones muy avanzadas en otros planetas se está poniendo a prueba. Ya ha dejado de ser pura especulación. Ahora se halla en el terreno de la experimentación.

LAS GRANDES CONQUISTAS DE LA CIENCIA

Hemos visto cuáles son las bases de la Revolución Científica del siglo XX: la física atómica, la física del espacio, las aplicaciones de la electrónica, la química de la vida; sobre estos cuatro pilares se han montado prácticamente todos los avances de la ciencia y de la técnica. De manera esquemática apuntamos algunos de los avances que más han influido en la vida del ser humano.

LA CONQUISTA DEL ESPACIO

Estamos probablemente en las primeras páginas de esta apasionante aventura, aunque nos parezcan ya conquistas casi increíbles: el lanzamiento de los primeros satélites (Sputniks rusos), la llegada del hombre a la Luna, el envío de ingenios espaciales para la recogida de materiales y la exploración del sistema solar, el ensamblaje de naves espaciales, etc.

LA GENÉTICA

Las teorías de Darwin y las leyes de Mendel han sido comprobadas en el siglo XX y enriquecidas o modificadas con las observaciones que permiten los aparatos de que disponen los investigadores. El holandés De Vries estableció, a principios de siglo, el concepto de mutación, la alteración que puede sufrir la carga genética almacenada en los cromosomas de las células genéticas o genes; de esta forma, la evolución no se produciría por alteraciones somáticas o anatómicas, por la adaptabilidad morfológica de los órganos a condiciones exteriores, como habían supuesto Lamarck y Darwin, sino por cambios internos del patrimonio hereditario. Las diferentes escuelas y los diferentes genéticos, Lyssenko, Dunn, Dobzanski, han explicado de diferentes formas los mecanismos pero aceptando todos la realidad de la evolución biológica.

EN LA MEDICINA

Podemos hablar de revoluciones, en plural. En primer lugar, el perfeccionamiento de los aparatos y las técnicas —rayos X, anestesia— ha permitido éxitos nuevos en la lucha contra la enfermedad. Por otra parte, la bioquímica ha puesto a disposición de los médicos sustancias que combaten a las bacterias patógenas: la meningitis es combatida por el ácido para-amino-salicílico; la malaria ha sido vencida por la cloroquinína y la paludrina; las vacunas han arrinconado enfermedades antes terroríficas; las sulfamidas y antibióticos han sido quizás la aportación más importante en este campo y Fleming, descubridor de la penicilina en 1928, uno de los grandes benefactores de la Humanidad.

Pero quizás el más fascinante capítulo de las ciencias medicas lo esté escribiendo el psicoanálisis, punto de partida para la medicina psicosomática. A las enfermedades provocadas por virus y a las provocadas por carencias de alguna sustancia habría que añadir un tercer tipo de trastornos, los del psiquismo, que se reflejan en el organismo, de donde se deduce que algunas enfermedades no pueden ser curadas sin estudiar sus raíces anímicas. Por otra parte, el psicoanálisis ha permitido un conocimiento más profundo del hombre. En este sentido la obra de Freud en medicina es equiparable a la de Einstein en física, supone una renovación total, un giro copernicano en los conceptos básicos

La indagación del subconsciente, en el que se arrinconan los traumas que el consciente no se atreve a afrontar y que afloran en el mundo de los sueños, permitió a Freud elucidar dimensiones desconocidas del espíritu, e iniciar unos métodos que fueron completados y revisados por Adler y Jung.Finalmente, constituye la revolución de las técnicas quirúrgicas el capítulo quizá más popular, especialmente el de los trasplantes de órganos, posibilitados por las investigaciones citológicas y las técnicas de conservación de órganos separados del ser al que pertenecen; los trasplantes del corazón, iniciados por el cirujano sudafricano Barnard, suscitaron la atención mundial, no obstante los avances más seguros no se han obtenido en la cardiología sino en la urología, oftalmología y otras ramas.

LA APORTACIÓN DE LA MATEMÁTICA

Durante siglos los matemáticos se movieron por los axiomas y postulados de la matemática griega; Thales, Pitágoras, Euclides son referencias constantes. Pero la nueva física precisaba una nueva matemática y partiendo de la consideración de que sólo el lenguaje matemático permite construir la ciencia física se ha desembocado en la afirmación de la necesidad universal de las matemáticas, necesidad demostrada por la cibernética y la aplicación incluso a ramas de la filosofía (lógica matemática). Un matemático-lógico, Kurt Gódel, demostró que en la ciencia eran siempre posibles las contradicciones porque el lenguaje científico es el desarrollo lógico obtenido mediante determinadas reglas (estructuras) aplicadas a un número de conceptos que se conviene en aceptar como validos, pero es posible sustituir estos conceptos básicos y levantar un nuevo edificio científico. De esta manera, se puede reemplazar la geometría de Euclides, apoyada en el postulado de que por un punto no se puede trazar más de una línea paralela a una recta, por otro postulado diferente (exigible por la concepción esférica del espacio einsteniano) y construir una geometría diferente. Y así se ha hecho. La aportación de Gódel, Whitehead, Russell, ha supuesto una palanca para el progreso del conocimiento.

De la misma manera que la Revolución Industrial se caracterizaba no por un invento aislado sino por una serie coherente de inventos, o mejor todavía por el invento que suscita otro más perfecto, la Revolución Científica ha despertado en cadena métodos y revelaciones que plantean nuevos interrogantes y permiten vislumbrar al mismo tiempo la posibilidad de contestarlas en un futuro inmediato.

El desafío del espacio

No hay camino de retorno al pasado; las únicas opciones, como ya dijo Wells, son el universo o la nada. Aunque los hombres y las civilizaciones anhelen descansar, para Eliseo y los lotófagos existe un deseo que se funde imperceptiblemente con la muerte. El desafío de los grandes espacios entre los mundos constituye un desafío formidable, pero si no le hacemos frente, ello significará que la historia de nuestra raza llega a su fin. La Humanidad habrá vuelto la espalda a las alturas todavía vírgenes y descenderá de nuevo por la larga pendiente que conduce, a través de miles de millones de anos, a los mares primigenios.

Escritos de Albert Einstein

La democracia

Mi ideal político es la democracia. El individuo debe respetado como persona. Nadie debería recibir un culto idólatra (Siempre me pareció una ironía del destino el haber suscitado tanta admiración y respeto inmerecidos. Comprendo que surgen del afán por comprender el par de conceptos que encontré con mis escasas fuerzas, al cabo de trabajos incesantes. Pero es un afán que muchos no podrán colmar).

La riqueza

No hay riqueza capaz de hacer progresar a la Humanidad, ni aun manejada por alguien que se lo proponga. A concepciones nobles, a nobles acciones, sólo conduce el ejemplo de altas y puras personalidades. El dinero no lleva más que al egoísmo, y conduce irremediablemente al abuso. ¿Podemos imaginar a Moisés, a Jesús, a Gandhi, subvencionados por el bolsillo de Carnegie?

La educación

Dar importancia excesiva y prematura al sistema competitivo y a la especialización en beneficio de la utilidad, segrega al espíritu de la vida cultural, y mata el germen del que depende la ciencia especializada.

Para que exista una educación válida es necesario que se desarrolle el pensamiento crítico e independiente de los jóvenes, un desarrollo puesto en peligro continuo por el exceso de materias (sistema puntual). Este exceso conduce necesariamente a la superficialidad y a la falta de cultura verdadera. La enseñanza debe ser tal que pueda recibirse como el mejor regalo y no como una amarga obligación.

Cuestionamientos al Progreso Tecnológico del Siglo XX

ALBERT EINSTEIN:  Mi visión del mundo. Tusquets, Barcelona, 1980.

Temas Relacionados:
El Átomo
Proyecto Genoma
Vida de las Estrellas
Biografía de Albert Einstein
Biografía de Max Planck

Biografía de Freud
Teoría de la Relatividad

Inventos de Edison Bombilla Eletrica Fonografo Historia y Evolución

Thomas Alva Edison es uno de los más famosos inventores de América: perfeccionó el telégrafo, el teléfono, inventó el mimeógrafo, aportó al cine y la fotografía, para, finalmente, gravar su nombre en el primer fonógrafo. Fue responsable de importantes cambios en la ciencia.

Sus inventos creados han contribuido a las modernas luces nocturnas, películas, teléfonos, grabaciones y CD’s. Edison fue realmente un genio. Edison es famoso por su desarrollo de la primera ampolleta eléctrica.

El fonógrafo de tinfoil fue la invención favorita de Edison. Hacia 1877, inventó la “máquina que habla” por accidente, mientras trabajaba en telegrafía y telefonía; pero el fonógrafo no salió a la venta sino hasta 10 años después. También trabajó en una máquina para grabar mensajes telegráficos automáticamente.

La primera demostración práctica, coronada con un éxito completo, tuvo lugar en Menlo Park, el 21 de octubre de 1879, y dio paso a la inauguración del primer suministro de luz eléctrica de la historia, instalado en la ciudad de Nueva York en 1882, y que inicialmente contaba con 85 abonados.

Para poder atender este servicio, Edison perfeccionó la lámpara de vacío con filamento de incandescencia, conocida popularmente con el nombre de bombilla, construyó la primera central eléctrica de la historia (la de Pearl Street, Nueva York) y desarrolló la conexión en paralelo de las bombillas, gracias a la cual, aunque una de las lámparas deje de funcionar, el resto de la instalación continúa dando luz.

La Primer Llamada Telefonica de la Historia Bell Inventor

La Revolución Industrial popularizó tanto los avances científicos como sus aplicaciones técnicas; el ferrocarril, la electricidad, el teléfono o las vacunas consiguieron que en la mentalidad de las sociedades europea y americana se estableciese el ideal de progreso continuado y una fe ciega en las posibilidades de la ciencia y la técnica: las exposiciones universales fueron un ejemplo de esta actitud.

Los propios científicos se convirtieron en propagandistas del progreso con la creación de instituciones y sociedades dedicadas a esta tarea, como la Royal Institution, fundada por Rumford en Londres (1 799) y animada por científicos como Davy y Faraday. Pronto se iniciará también una colaboración internacional plasmada en la celebración de congresos como los de estadística (1853), química (1860), botánica (1864) y medicina (1867).

Otro hecho interesante que hay que destacar es el de la conversión de la actividad científica en un acontecimiento de amplias repercusiones sociales, es decir, en un fenómeno sociológico. Las aplicaciones de la física en la industria, o de la biología en la medicina, provocaron el cambio de actitud de la sociedad frente a los avances científicos. Los gobiernos que desde el siglo XVI impulsaron la fundación de universidades y academias, iniciarán, a partir del despotismo ilustrado y por influencia de los enciclopedistas, una actuación que se podría calificar de «política científica».

Estas acciones supondrán la extensión de la enseñanza superior, cambios en los planes de estudio y realización de tareas científico-técnicas fomentadas y financiadas por las monarquías del Antiguo Régimen. Academias, observatorios y expediciones científicas se prodigarán en Europa durante el siglo de las Luces.

Una derivación del telégrafo que finalmente tuvo un efecto igual de grande fue el teléfono. Patentado en Estados Unidos en 1876 por Alexander Graham Bell, y perfeccionado por el inventor Tomás Alva Edison, el teléfono pronto se asentó. En 1884, la compañía de Bell puso en funcionamiento la primera línea de larga distancia entre Boston y Nueva York. Las redes de cables, parte vital para las comunicaciones, fueron desarrolladas en varias naciones. Marcar los números sin recurrir a la operadora aceleró el proceso telefónico y, poco después, la mayoría de las grandes ciudades contaron con sus propias redes.

El teléfono en una exposición: Es casi seguro que Bell no se diese cuenta de la inmensa trascendencia de su invento, pero lo cierto es que en el mes de julio de 1876, se celebró en Filadelfia una gran exposición con motivo de la conmemoración de la independencia de Estados Unidos.

Es muy posible que Bell no pensara llevar su invento a dicha exposición, puesto que tal vez consideraba que el aparato, compuesto por un receptor harto rudimentario, un transmisor y un hilo que hacía vibrar la membrana metálica, que Bell ya había patentado con el nombre de teléfono, no era digno de figurar en una exposición de tanto prestigio.

Pero intervino el amor. Efectivamente, Bell fue a la estación de Boston a despedir a su amada que, junio con su padre, se marchaba a Filadelfia. El joven subió a un vagón, incapaz de contener los impulsos de su enamorado corazón, y así llegó a la capital di Pennsylvania. Luego, pidió por carta a Watson que le enviase el aparato, y logró exponerlo en un rincón

Durante varios días nadie se acercó a conocer su invento. Pero de pronto se produjo el milagro. El mismo  día en que la Comisión se disponía a conceder los diversos premios establecidos, un personaje con gran séquito, nada menos que el emperador Pedro, del Brasil, se acercó a la mesa de Bell. Lo cierto era que el emperador había conocido al joven Bell cuando éste enseñaba a los sordomudos en su país. Tan pronto como el Emperador reconoció a Bell, lo abrazó, con gran asombro de todos los presentes y, como es natural, todos se interesaron por el inventor y su invento.

El propio Emperador, después de oír unas palabras a través del receptor, exclamo:
—Este aparato habla!

Estas palabras cambiaron por completo la vida y la fortuna de Alexander Graham Bell. La aludida Comisión estudió el aparato, y de aquella exposición surgieron dos cosas importantísimas en la vida de Bell: su boda con su amada y la intervención de su suegro en las patentes del joven, todo lo cual tuvo como epílogo la producción del teléfono en serie, su perfeccionamiento y su propagación por todo el mundo.

Sólo hubo una amargura en medio de su triunfo:
Bell, que había dedicado gran parte de su juventud a enseñar a vocalizar y hablar a los sordomudos, jamás consiguió que su linda esposa, sordomuda también, llegase a hablar y a oír a su marido, ni por teléfono ni de viva voz.

ANTECEDENTES DE LA ÉPOCA: Las ventajas materiales constantemente crecientes y a menudo espectaculares, generadas por la ciencia y la tecnología, dieron lugar a un aumento de la fe en los beneficios de esta rama del saber y el hacer humanos. Aun la gente ordinaria que no entendía los conceptos teóricos de la ciencia estaba impresionada por sus logros.

La popularidad de los logros científicos y tecnológicos condujo a la extendida aceptación del método científico, basado en la observación, el experimento y el análisis lógico, como único camino a la verdad y a la realidad objetivas. Esto, a su vez, minó la fe de mucha gente en la revelación y la verdad religiosas. No es por accidente que el siglo XIX llegó a ser una época de creciente secularización, que de manera particular se manifiesta en el crecimiento del materialismo o la creencia de que todo lo mental, espiritual o sentimental era, sencillamente, una excrecencia de las fuerzas físicas.

La verdad había de encontrarse en la existencia material concreta de los seres humanos, no como la imaginaban los románticos, en las revelaciones obtenidas por destellos del sentimiento o de la intuición.

La importancia del materialismo fue asombrosamente evidente en el acontecimiento científico más importante del siglo XIX, el desarrollo de la teoría de la evolución orgánica mediante la selección natural. Sobre las teorías de Charles Darwin podría construirse un cuadro de los seres humanos como seres materiales, que eran parte sencillamente del mundo natural.

Logros cientificos Siglo XIX Teoria Electromagmetica de Maxwell

La caída del principio de “libre competencia”, bajo la aplastante tendencia a la concentración de la producción y los capitales en la segunda fase de la Revolución Industrial, supuso también una transformación importante en el desarrollo del quehacer científico y en la elaboración de las nuevas técnicas. Durante el proceso de la industrialización, el desarrollo científico y técnico no conocía más ritmos que el de un progreso lineal constante. Sin embargo, la producción científica caminaba dentro de los márgenes de una cierta autonomía, pero siempre bajo la tutela del empresario capitalista emprendedor.

El estímulo económico de la libre competencia repercutía, sin duda, en el campo de la investigación. Por otra parte, las fuertes crisis cíclicas del capitalismo industrial, fundamentalmente de superproducción, forzaban a condicionar la técnica a una continua depuración. Había un hilo común que iba de estas crisis de superproducción, a través de la caída de los precios y el desempleo que produce el maquinismo, hasta la caída del nivel de consumo de las clases trabajadoras.

JAMES C. MAXWELL En la historia de la ciencias  hay algunos científicos virtualmente desconocidos para el gran público, aunque sus logros sean casi tan importantes como los de los de Einstein, Darwin y Newton. Éste es el caso del físico escocés James Clerk Maxwell.

Los científicos profesionales, y los físicos en particular, lo reconocen como uno de los más inteligentes e influyentes que hayan vivido nunca, pero fuera de los círculos científicos su nombre apenas es conocido.

Maxwell nació en Edimburgo, en 1831, el mismo año en que Faraday logró su máximo descubrimiento, la inducción electromagnética, en 1831. Descendiente de una antigua familia de nobles blasones, Maxwell era un niño prodigio. En 1841 inició sus estudios en la Academia de Edimburgo, donde demostró su excepcional interés por la geometría, disciplina sobre la que trató su primer trabajo científico, que le fue publicado cuando sólo tenía catorce años de edad.

A pesar de que su madre murió cuando tenía ocho años, tuvo una infancia feliz. A una edad temprana ya demostró ser una promesa excepcional, sobre todo en matemáticas. Cuando tenía quince años, sometió un escrito sobre matemáticas a la Royal Society de Edimburgo, que asombró a todos los que lo leyeron. Al año siguiente tuvo la suerte de conocer al físico de setenta años William Nicol, que también vivía en Edimburgo.

Nicol había hecho un trabajo importante utilizando cristales para investigar la naturaleza y la conducta de la luz, y las conversaciones adolescentes de Maxwell con él hicieron que sintiera un interés por la luz y otras formas de radiación que le duró toda la vida.

Estudió matemáticas con sobresaliente en Cambridge y se graduó en matemáticas en 1854; siendo estudiante, tuvo la experiencia intelectual que definió su vida: la lectura de las Investigaciones experimentales en electricidad de Faraday. Todavía estudiaba cuando realizó una gran contribución al desarrollo del tema con un brillante escrito titulado Sobre las líneas de fuerza de Faraday.

Más tarde fue asignado a la cátedra de filosofía natural en Aberdeen, cargo que desempeñó hasta que el duque de Devonshire le ofreció la organización y la cátedra de física en el laboratorio Cavendish de Cambridge. Tal labor lo absorbió por completo y lo condujeron a la formulación de la teoría electromagnética de la luz y de las ecuaciones generales del campo electromagnético.

En 1856, a los veinticinco años, fue nombrado profesor en el Marischal College de Aberdeen; y en 1860 se trasladó al Kings College de Londres como profesor de filosofía natural y astronomía. Fue en esa época de la mudanza a Londres cuando realizó su primera gran contribución al avance de la física.

En tal contexto, Maxwell estableció que la luz está constituida por ondulaciones transversales del mismo medio, lo cual provoca los fenómenos eléctricos y magnéticos. Sus más fecundos años los pasó en el silencioso retiro de su casa de campo. Allí maduró la monumental obra «Trealise on Electricity and Magnetism» (1873).

James Clerk Maxwell falleció en Cambridge, el 5 de noviembre de 1879.

ALGO MAS…

1-Formuló la hipótesis de la identidad de la electricidad y la luz.

2-Inventó un trompo para mezclar el color y un oftalmoscopio, instrumento que permite ver el interior del ojo de una persona viva, o de un animal. Experimentalmente demostró que la mezcla de dos determinados pigmentos de pintura constituía un proceso diferente a la mezcla de los mismo colores de luz. Sus principios fundamentales sobre la mezcla de colores se emplea en la actualidad es la fotografía, la cinematografía y la televisión.

3-Maxwell corrigió a Joule, Bernouilli y Clausius que habían sostenido que propiedades de los gases como la densidad, la presión, le temperatura eran debidas a que un gas está compuesto de partículas de movimiento rápido y velocidad constante. Maxwell demostró que la velocidad no es constante y que varía de acuerdo con la curva de frecuencia en forma de campana que se conoce como ley de Maxwell. Sus descubrimientos han servido de fundamento a las teorías de las física del plasma. Maxwell inventó la mecánica estadística para analizar las velocidades moleculares de los gases.

Leyes de la Herencia de Mendel Historia de sus Experiencias

Historia de las Experiencias de Mendel y El Auge de la Genética

A partir de 1856  y después de nueve años de trabajo, en que estudió la reproducción en 28.000 plantas de guisantes, Mendel presentó en 1865 sus resultados a la citada sociedad de historia natural. La comunicación, en la que establecía las leyes de la herencia, fue publicada al año siguiente en los anales de la sociedad. ¿Cómo pudo pasar inadvertida durante treinta y cuatro años? Es un enigma de la historia de la ciencia. Una de las razones pudo consistir en que Mendel no se preocupó de publicar sus trabajos en alguna revista científica de amplia difusión. Pero también hay que tener en cuenta, sobre todo, que sus descubrimientos contradecían radicalmente las ideas que entonces se tenían sobre la herencia: según Mendel, los determinantes genéticos de los caracteres provenientes de los padres no se «mezclaban» en sus descendientes, cuando la teoría más común era la de la herencia por mezcla. En otras palabras: la obra de Mendel era prematura en relación a los conocimientos prácticos y teóricos de su época.

Mendel tuvo la fortuna de contar, en su propio monasterio, con el material necesario para sus experimentos. Comenzó sus trabajos estudiando las abejas, coleccionando reinas de todas las razas, con las que llevaba a cabo distintos tipos de cruces.

Entre 1856 y 1863 realizó experimentos sobre la hibridación de plantas. Trabajó con más de 28.000 plantas de distintas variantes del guisante oloroso o chícharo, analizando con detalle siete pares de características de la semilla y la planta: la forma de la semilla, el color de los cotiledones, la forma de la vaina, el color de la vaina inmadura, la posición de las flores, el color de las flores y la longitud del tallo.

Sus exhaustivos experimentos tuvieron como resultado el enunciado de dos principios que más tarde serían conocidos como «leyes de la herencia». Sus observaciones le permitieron acuñar dos términos que siguen empleándose en la genética de nuestros días: dominante y recesivo. Factor e hibrido son, asimismo, dos de los conceptos establecidos por Mendel de absoluta vigencia en la actualidad.

El descubridor de Mendel: Después de realizar sus estudios en Viena,Tschermak decidió adquirir experiencia en agricultura y trabajó en la granja Rotvorwerk, cerca de Friburgo (Sajonia). Luego retomó sus estudios de botánica en la universidad de Halle y se doctoró en 1896. En la primavera de 1898, Tschermak comenzó a estudiar la reproducción del guisante en el jardín botánico de Gante, y luego en Esslingen, cerca de Viena.

En 1900, con la intención de publicar sus resultados, encontró las huellas de los trabajos de Mendel y reconoció con sorpresa que éstos ya exponían e incluso sobrepasaban sus investigaciones personales. Eminente genetista de plantas, Tschermak aplicó seguidamente las leyes de la herencia de Mendel al desarrollo de nuevas plantas y logró perfeccionar los híbridos trigocenteno y un híbrido de avena de crecimiento rápido resistente a las enfermedades.

UN RECONOCIMIENTO TARDÍO
Mi las dos ponencias sobre sus descubrimientos ante la Asociación de ciencias naturales de Brünn en febrero y marzo de 1865, ni el texto publicado en el volumen y de las actas de la asociación fueron objeto de comentarios. Sin duda, esta indiferencia del mundo científico se explica por el carácter insólito del pensamiento mendeliano, que podía parecer «antibiológico», sobre todo en 1865; por el corte”secular que separaba, a los ojos de los naturalistas, los problemas de la herencia de aquellos de la hibridación, y quizás también por el aspecto aparentemente «inmutable» de las conclusiones del autor, en una época marcada por la repercusión de El origen de las espicies.

El propio Mendel, elegido en 1868 superior de su convento, abandonó hacia 1870 sus investigaciones sobre la hibridación, limitó sus observaciones a la meteorología y consagró sus fuerzas, hasta su muerte, en los asuntos de su comunidad. Murió siendo totalmente desconocido el 6 de enero de 1884. Debieron transcurrir treinta y cuatro años para que se reconociera el verdadero alcance de sus descubrimientos.

En 1900, tres botánicos europeos, Cari Correns, Erich Tschermak von Seysenegg y Hugo de Vries, obtuvieron en forma independiente resultados similares a los de Mendel y, al investigar en la literatura sobre el tema, sacaron a la luz sus trabajos, asegurando al padre de la genética un tardío reconocimiento.

EL AUGE DE LA GENÉTICA
EL descubrimiento de las leyes de Men-del siguió una verdadera floración de investigaciones sobre genética. De entrada, desde 1902, Lucien Cuénot (1866-1951), en Francia, y William Bateson (1861-1926), en Gran Bretaña, demostraron que dichas leyes eran válidas también para el reino animal (hasta entonces, tanto en los trabajos de Mendel como en los de H. De Vries, C. E. Correns y E. Tschermak, habían sido establecidas sólo para los vegetales). Paralelamente, el biólogo norteamericano W. S. Sutton (1877-1916) y el alemán T. Boveri (1862-1915), al advertir que los cromosomas se distribuyen en la reproducción exactamente igual que lo hacen los genes, dedujeron que aquéllos son el soporte físico de éstos (aunque hubo que esperar a los trabajos de T. H. Morgan, en la década de 1910, para que esta hipótesis se aceptara sin reticencias). En 1909, el biólogo danés W. L. Johannsen (1857-1927) fue el primero en usar el término gen, diferenciando genotipo y fenotipo, y al año siguiente el norteamericano E. M. East (1879-1938) demostró que los caracteres sujetos a variación continua (como el tamaño) están controlados por varios genes a la vez. Entre tanto, el matemático británico G. H. Hardy (1877-1947) y el biólogo alemán W. Weinberg (1862-1937) determinaron la más fundamental de las leyes de la genética de poblaciones (principio de Hardy-Weinberg), que permitió a los matemáticos y biólogos posteriores plantear, sobre bases sólidas, un análisis genético de la evolución de las especies.

La Seleccion Natural Mediante El Uso de un Arma Biologica Natural

Si un parásito matase a todos los huéspedes a los cuales encuentra, entonces también él perecería. Existen al menos dos estrategias que pueden adoptar los parásitos para asegurar su permanencia, y ambas dependen de su propio estilo de vida.

Por un lado, si el parásito es muy rápido para multiplicarse y pasar a otro huésped y si, al mismo tiempo, hay una cantidad infinita de nuevos huéspedes no infectados donde anidar, el parásito puede mantener un estado de alta virulencia generación tras generación. Sin embargo, la realidad es que si este tipo de parásitos tuviera el suficiente éxito, se haría cada vez más difícil encontrar una cantidad ilimitada de nuevos huéspedes no infectados.

Lo lógico en este caso es que la población huésped disminuya, y por lo mismo la “comida” potencial del parásito también disminuirá. Por ello, el mantenimiento de un estado de alta virulencia termina siendo contraproducente para el propio parásito. Así, si cualquiera de los preceptos mencionados no se cumple, al parásito no le queda otro camino que atenuar su virulencia.

En este caso cuenta con la complicación de que el huésped también tendrá tiempo para combatirlo, por lo que los parásitos deberán utilizar este tiempo para cambiar y adaptarse también a las nuevas respuestas del huésped. Por lo mismo, casi todas las relaciones de coevolución, con el tiempo, terminan en la atenuación de las respuestas entre predador y presa. Para ilustrarlo veamos una serie de desventuras ocurridas en Australia.

Los diseñadores de políticas ambientales australianas no les temían a los riesgos y por ello se embarcaron en un proyecto que, para controlar un desbalance grave del equilibrio ecológico, implicó una serie de peligros que no se tuvieron en cuenta y generaron nuevos desequilibrios. No hubo conejos en Australia hasta 1859, cuando un señor inglés importó apenas una docena de estos encantadores animalitos desde Europa, para distraer a su esposa y agraciar su hacienda. Los conejos se reproducen muy rápido, apenas un poco más rápido de lo que tardamos en reconocer el problema que generan. Y ese “apenas” es más que suficiente.

En poco más de un lustro (1865), el mencionado caballero había matado a un total de 20.000 conejos en su propiedad y calculó que quedaban todavía otros 10.000. En 1887, en Nueva Gales del Sur solamente, los australianos mataron 20 millones de conejos. Llegado el siglo XX aparecieron nuevas herramientas de combate contra las plagas. En la década de 1950, la vegetación de Australia estaba siendo consumida por hordas de conejos. En ese año el gobierno trató de hacer algo para detener a los simpáticos animalitos. En Sudamérica, los conejos locales están adaptados a un virus con el que conviven desde hace mucho tiempo. este se transmite cuando los mosquitos que toman la sangre de un conejo infectado lo depositan sobre un conejo sano, ya sea por deposición o por la nueva picadura. Este agente infeccioso, denominado virus de la mixomatosis, provoca sólo una enfermedad leve en los conejos de Sudamérica, que son sus huéspedes normales.

La mixomatosis ha generado una de las mayores catástrofes ecológicas de la historia y el desmantelamiento de las cadenas tróficas en el ámbito mediterráneo, donde el conejo era la base de la alimentación de rapaces y carnívoros. De nuevo el responsable de esta catástrofe fue el ser humano al ser introducida la enfermedad en Francia en 1952, desde donde se extendió por toda Europa. Dicha enfermedad se había llevado a Australia anteriormente para erradicar el conejo allí, que era plaga.

Sin embargo, es mortal para el conejo europeo, que fue el que se implantó en Australia. Así que en Australia se liberaron en el campo una gran cantidad de conejos infectados con el virus de la mixomatosis, esperando que [os mosquitos autóctonos hicieran el trabajo de esparcir el agente infeccioso. En un comienzo, los efectos fueron espectaculares y la población de conejos declinó de manera constante: llegó a ser menos del 10% de la población original, cuando comenzó el tratamiento en gran escala. De esta manera se recuperaron zonas de pastura para los rebaños de ovejas, de los cuales depende en gran medida la economía de Australia.

Sin embargo, en poco tiempo aparecieron evidencias de que algunos conejos eran más resistentes a la enfermedad. Como estos conejos eran los que más se reproducían, sus crías también resultaron resistentes al virus de la mixomatosis. Cuando el fenómeno se estudió en forma global, se observó que no sólo los conejos se volvían más resistentes, sino también que el virus iba atenuando su virulencia generación tras generación. Así, había ocurrido un doble proceso de selección. El virus original había resultado tan rápidamente fatal que el conejo infectado solía morir antes de que tuviese tiempo de ser picado por un mosquito y, por lo tanto, de infectar a otro conejo; la cepa del virus letal, entonces, moría o desaparecía junto con el conejo. Por otra parte, en la preparación original de virus debería de haber algunos más atenuados.

En las condiciones de muy alta mortalidad de los conejos, las cepas virales de efectos más atenuados tenían una mejor probabilidad de sobrevivir, dado que disponían de mejores oportunidades y, fundamentalmente, de más tiempo para encontrar un nuevo huésped. De tal manera, la selección comenzó a operar en favor de una cepa menos virulenta del virus. Por su parte, un conejo que sobrevive a una infección inicial queda “protegido” como si hubiera sido vacunado, por lo que no vuelve a enfermarse fácilmente. Además es probable que los sobrevivientes hayan sido los que más resistencia intrínseca tuvieron al virus original. De esta manera su descendencia también debía ser más resistente, por lo que cuando estos conejos comenzaron a proliferar, todos los conejos australianos fueron adquiriendo resistencia al virus de la mixomatosis. Hace poco tiempo, como resultado de la rápida coevolución, la relación huésped-parásito se estabilizó, por lo que los conejos volvieron a multiplicarse, y regeneraron la población existente antes del comienzo del ataque.

En definitiva, se utilizó un arma biológica tremendamente activa, pero las consecuencias distaron mucho de ser las esperadas. De hecho, no se contuvo la proliferación de los conejos y se mantuvo el riesgo del desequilibrio ambiental comenzado hace 150 años, y; por el contrario, se generó una adaptación de los animales, se los tomó más fuertes para resistir a una plaga como el virus de la mixomatosis A pesar de las enseñanzas que debieron haber quedado después de este tremendo fracaso, hace poco tiempo se intentó nuevamente en Australia repetir la metodología para eliminar Los conejos con un nuevo patógeno cuya dinámica poblacional se desconocía casi por completo. Es obvio que hay gente a la que le encantan los riesgos. El problema es cuando al asumirlos se involucra a demasiadas personas, o, como en este caso, a un ecosistema completo.

satira a darwin
Portada en una revista, publicado con ironía la teoría de Darwin

A lo largo de la evolución, y mediante el proceso de selección natural, los organismos de las distintas especies han ido adquiriendo modificaciones morfológicas, fisiológicas y comportamentales con las cuales han logrado responder y adaptarse a las características Particulares de su medio.

ESTRATEGIA ADAPTATIVA DE PLANTAS Y ANIMALES
FACTOR EFECTOS ADAPTACIONES DE LAS PLANTAS ADAPTACIONES DE LOS ANIMALES
Escasez de Agua Deshidratación.
Estrés hídrico.

Reducción de la superficie foliar, por la que las plantas transpiran: espinas.Esclerofilia (hojas duras, coriáceas o revestidas con ceras o quitina, que las protegen de la radiación intensa y de la desecación)

Plantas con metabolismoCAM (los estomas de las hojas sólo se abren de noche para captar el CO2, con lo que se evita la pérdida de agua que se produciría si los estomas se abrieran durante las horas de mayor radiación solar).

• Piel estratificada, con varias capas de células (por ejemplo, en los vertebrados).• Productos de excreción concentrados, como el ácido úrico o le urea en lugar del amoníaco.

• Elevada reabsorción intestinal de agua en las heces.

• Obtención de agua metabólica a partir de la oxidación del hidrógeno de los alimentos.

Temperatura Temperaturas altas: deshidratación desnaturalización de las enzimas.
Temperaturas bajas: cristalización del agua en los tejidos, retardo del metabolismo.
Las mismas que para la escasez de agua. Al calor y al frío: cambios comportamentales (mayor actividad diurna durante el invierno y mayor actividad nocturna o crepuscular durante períodos cálidos); regulación social de la temperatura: vida en grupos, sobre las ramas de los árboles o en cuevas; vida subterránea.
Escasez de Alimentos, baja disponibilidad de nutrientes Crecimiento y desarrollo deficientes.Inanición. Plantas carnívoras, como respuesta a la escasez de nitrógeno en pantanos, bosques con suelos empobrecidos, etcétera.Asociación con bacterias fijadoras ; de nitrógeno en leguminosas: nódulos radiculares. Asociación con hongos (micorrizas) en distintas plantas. Almacenamiento en cuevas y guaridas, como en las hormigas y otros insectos sociales.Acumulación de reservas en la grasa corporal.
Salinidad •  Efecto osmótico: tendencia de los tejidos a perder agua en ambientes muy salinos (medio hipertónico), y a ganar agua e hincharse en ambientes poco salinos (medio hipotónico).•  Efecto iónico: toxicidad en plantas (especialmente por Cl y Na4). Secreción de iones a través de glándulas especializadas.Suculencia: planta de aspecto globoso; incorporan agua para diluir la concentración de sales. Vida marina (medio hipertónico): beben agua de mar y luego secretan el exceso de sales a través de las branquias y las glándulas de la sal; producen una orina concentrada.Agua dulce (medio hipotónico): no beben agua y absorben sales a través de la piel y las branquias; producen una orina diluida.

Fuente Consultada:
Ahí viene la plaga Colección: “Ciencia que ladra….” Mario Lozano

LA SELECCION ARTIFICIAL: LA ACCIÓN DEL HOMBRE EN LA SELECCIÓN DE LAS MEJORES ESPECIES

En su célebre obra, Darwin hace una serie de consideraciones acerca de las variaciones que aparecen en muchas especies de plantas y animales domésticos. Llegó a la conclusión de que, evidentemente, todas las especies de plantas y animales domésticos proceden de especies silvestres. La explicación era sencilla el hombre no ha sido siempre agricultor y ganadero, ya que sabemos que en tiempos remotos vivía exclusivamente de la caza y de la pesca, o de la recolección de frutos (etapa de cazador-recolector), forma de vida que conservan actualmente algunas tribus remotas de Nueva Guinea o de la Amazonia.

En algún momento en la historia, el ser humano eligió determinadas especies de animales que le eran particularmente útiles como alimento y comenzó a criarlas en cautiverio. Estos primeros intentos constituyeron el comienzo de la ganadería, que más tarde se iría perfeccionando hasta llegar a nuestros días.

Al observar las actuales especies de animales domésticos, inmediatamente se advertirá que la variación que se presenta entre los individuos es mucho mayor que la que aparece en el mismo animal en estado silvestre. Darwin fue un profundo conocedor de muchas especies de animales domésticos, y él mismo, durante una larga etapa de su vida, se dedicó en el campo a la cría de palomas.

En el caso de la paloma, Darwin llegó a la conclusión de que todas las razas domésticas procedían de la paloma de las rocas, Cotumba livia.

Si bien ésta presenta características muy constantes en cuanto al tamaño, el color, la forma de las alas, el pico y la cola, etc., el número de variaciones observado en las razas domésticas es sumamente elevado.

Otro ejemplo examinado por Darwin es el caballo, un animal de gran utilidad para el hombre, que ha sido sometido a un largo proceso de selección artificial desde hace miles de años. Así, mediante cruzas controladas se han obtenido muchísimas razas de caballos que son diferentes tanto por su aspecto como por su capacidad.

Dos ejemplos son los pura sangre y los percherones. Los caballos de pura sangre son altos, de cascos pequeños y patas delgadas y musculosas. Son notablemente veloces y, por eso, son los típicos caballos de carrera. Por otro lado, los percherones son caballos de poca alzada, grandes cascos y patas cortas y fuertes. No pueden tener gran velocidad, pero son caballos muy fuertes y resistentes, lo que los hace muy aptos como animales de tiro.

Las variaciones que se dan en los cereales, las frutas y las hortalizas cultivadas son incluso más notables que las de los animales, si se comparan con las correspondientes especies silvestres.

A pesar de la posible influencia de las condiciones ambientales y de las costumbres, Darwin asignó a la acción humana el papel fundamental en la variabilidad de las especies domésticas de plantas y animales.

Desde la época de los faraones egipcios, el ser humano eligió las semillas de plantas más robustas y los animales mejor dotados para utilizarlos como reproductores en la agricultura y en la ganadería. De esta forma, consiguió mejorar las razas.

Lo que hace el hombre es “seleccionar” aquellos individuos que presentan espontáneamente variaciones interesantes que pueden transmitirse a la descendencia. En los cereales, por ejemplo, elegirá las semillas de mayor tamaño o más robustas, ya que sabe que di-chas semillas normalmente darán origen a plantas jóvenes mejores que las semillas de plantas raquíticas o que han dado menos frutos. Estos mismos ejemplos podrían ampliarse a todos los animales y plantas domésticos.

Evidencias aportadas por la selección artificial
La cruza de animales de cría o de plantas cultivadas para obtener individuos con ciertas características deseables fue una práctica implementada por el hombre desde la época en que abandonó la caza y la recolección como principal forma de subsistencia y se estableció en un sitio por un período más prolongado.

En esta práctica, llamada selección artificial, el criador de animales tales como perros, gatos, vacas, ovejas, caballos, palomas, u otras especies selecciona entre los progenitores a los individuos cuyas características se ajustan a lo que busca, y aparta a los otros posibles progenitores. Como la descendencia puede presentar características no deseadas, el criador vuelve a seleccionar en cada generación los individuos que se ajustan a sus preferencias. De este modo, resulta que las características de los descendientes aparecen fuertemente diferenciadas de las de los ancestros.

Este proceso le ha permitido al hombre obtener una gran variedad de razas de perros, tan diferentes en tamaño y aspecto como un gran danés, un ovejero alemán o un chiguagua. Asimismo, es notable la diversidad de razas de los diferentes tipos de ganados vacuno, ovino, lanar, en muchos casos muy distintos de sus parientes ancestrales que podrían encontrarse en estado salvaje.

De la misma forma, se han obtenido muchas plantas cultivadas, tanto alimenticias como ornamentales, con notables diferencias con respecto a sus estados originales.
Esta práctica llamó poderosamente la atención de Darwin y le aportó una de las evidencias más importantes para sustentar sus hipótesis.

La selección artificial continua era lo suficientemente poderosa como para provocar cambios observables en tiempos relativamente cortos. Dados los largos períodos de la historia evolutiva, la selección natural parecía una explicación adecuada para la aparición de nuevas especies.

Fuente Consultada:
Biología y Ciencias de la Tierra La Selección Natural Capitulo: 15

Condiciones Para La Vida en el Planeta Factores Ambientales Basicos

la vida en el planeta

TEMA RELACIONADOS

La Aparición De La Vida
La Teoría De La Evolución De Charles Darwin
La Terapia Genética
La Eutanasia o Muerte Digna
El Origen Del Hombre En El Planeta
El Proyecto Genoma Humano

La Clonación Humana y Animal
La Eugenesia o Reproducción de las Mejores Especies 

LA VIDA EN EL PLANETA TIERRA: Separar el mundo inerte del mundo organizado parecía, hasta nace pocos lustros, una tarea muy sencilla: un elefante es un ser vivo y una roca no. Mas al profundizar en el conocimiento de los seres infinitamente pequeños, se llega a dudar y se ve como algo sumamente confuso la línea divisoria entre los dos mundos. Hay cuerpos que no es posible determinar de un modo claro si son seres vivos o moléculas inorgánicas muy complicadas. Pertenecen al mundo de las proteínas.

Los virus, por ejemplo, son microbios sumamente pequeños. El productor de la poliomielitis, que tantos quebraderos de cabeza ha proporcionado a médicos y biólogos, mide una centésima de miera. Son necesarios, por tanto, 100.000 de ellos puestos en fila para formar un milímetro. Se comprende que sólo el microscopio electrónico haya sido capaz de hacerlos visibles.

Las nucleoproleínas, sustancias químicas formadas por moléculas sumamente complicadas, en algunos casos se comportan exactamente igual que los virus y se ha llegado a dudar si son seres vivos o sólo compuestos químicos. Los doctores Fraenkel y Williams, de los Estados Unidos, afirmaron que hablan obtenido en sus laboratorios nucleoproteínas vivas por síntesis, es decir, hablan creado vida, pero en una forma tan rudimentaria., que sólo podían existir sobre otras materias vivas. Se trataba, por tanto, de algo que está en la borrosa línea que separa lo vivo de lo inerte.

Pero esta imitación o creación de vida simplicísima en el laboratorio se halla a gran distancia de la complejidad de un ser vivo tan sencillo como puede ser una ameba o un hongo.
Se conocen las manifestaciones de la vida y se señalan sus notas características, pero los científicos están acordes en no saber qué cosa es en sí la vida.

Porque ésta presupone, además de una cierta organización de los elementos que forman el cuerpo vivo, la unidad de intención, es decir, la tendencia por la que todas las partes contribuyen a una finalidad. En un huevo, por ejemplo, se encuentran uña serie de sustancias (azúcares, grasas, proteínas y agua) que son los compuestos orgánicos indispensables para que exista la vida.

Éstos tienden a transformarse en un polluelo, que es un microcosmos complicadísimo en el que billones de células trabajan ordenadamente para cumplir ese fin o tendencia que da por resultado un pollo adulto. ¿Por qué no se descomponen dichas sustancias y dan lugar a carbono, hidrógeno, oxígeno, nitrógeno y pequeños rastros de fósforo, azufre, calcio, etc.? ¿Por qué tienden a complicarse en lugar de descomponerse?

En esta tendencia, que supone organización, se encuentra oculto el gran secreto de la vida.

Los cuatro grandes elementos del mundo viviente son el Carbono, el Oxígeno, el Hidrógeno, y el Nitrógeno. Sin ellos no puede existir vida alguna y es tan importante el papel que juegan en la Biología, que el 99 % de todo ser vivo está formado por estos cuatro cuerpos simples.

En el mundo impera una ley implacable de cambio, de evolución, que somete a todas las cosas y resulta imposible de evitar y menos prever en cuanto a su duración y término. En los seres inertes, la erosión, los elementos atmosféricos, la gravedad, etc., determinan este desgaste continuo que se da en las montañas, en los monumentos y en cualquier obra humana o de la naturaleza.

Los seres inertes no pueden luchar contra este desmoronamiento constante y fatal, pero los seres vivos sí, y para evitarlo se nutren y asimilan sustancias que les son necesarias. Durante su infancia y juventud, esta asimilación les proporciona energía suficiente no sólo para vivir, sino para crecer. Es en la vejez cuando la nutrición no es suficiente para detener la caída del ser vivo hacia la muerte, donde se precipita por un proceso natural, de desasimilación, pérdida y decadencia.

Los seres vivos necesitan, pues, extraer del ambiente los cuatro elementos antes citados y que permitirán al laboratorio de su cuerpo transformarlos en sustancia propia.

La asimilación del Oxígeno y del Hidrógeno por entrar estos elementos en la formación del agua, no constituyen problema, pero ni el Carbono, ni el Nitrógeno pueden captarse directamente del mundo natural. Los procesos por los cuales los seres vivos se ingenian para apropiarse estos elementos y el ciclo de cambios constantes por los que pasan de unos vivientes a otros, constituye uno de los hechos más admirables de la Biología.

La biosfera es la región de la Tierra que alberga a los seres vivos. En sentido estricto, es la zona comprendida entre los fondos marinos abisales, situados a unos 11.000 m de profundidad y la altura máxima terrestre, que es de casi 9.000 m de altura sobre la superficie del mar. En realidad estos 20 Km. de espesor máximo se reducen enormemente si consideramos, por un lado, que la gran mayoría de los mares y océanos no son tan profundos y por otro, que los seres vivos que habitan el medio terrestre no lo hacen más allá de unos 200 m por encima del suelo.

En cualquier caso la biosfera constituye una capa muy delgada si la comparamos con el resto de capas que forman nuestro planeta y está formada por gran cantidad de ambientes distintos donde los seres vivos desarrollan sus actividades de maneras muy diversas.

La biosfera no es una capa homogénea, debido a que los organismos tienden a acumularse en determinados lugares donde las condiciones para la vida son más adecuadas. Estas condiciones vienen determinadas básicamente por los denominados factores ambientales, de los cuales los más importantes son: la temperatura, la luz, el agua y la presión.

La temperatura
La Tierra posee unas condiciones únicas para el desarrollo de la vida sobre su superficie si la comparamos con otros planetas del sistema solar. Esto se debe entre atrás cosas a que, por su distancia del sol f por la existencia de las capas atmosféricas, disfruta de un régimen de temperaturas adecuado.

El desarrollo y mantenimiento de la vida requiere que la temperatura se mantenga centro del intervalo comprendido entre a temperatura extrema mínima de O °C f la temperatura extrema máxima de 50 °C aproximadamente.

A temperaturas inferiores a los O °C, el agua, cuya proporción es mayoritaria en los organismos, se congela, mientras que por encima de los 50 :C, las estructuras biológicas más importantes que forman la materia viva, como las proteínas, que veremos en caratillos posteriores, sufren un proceso denominado desnaturalización, por el cual pierden tanto su estructura física como las propiedades. Existe una temperatura óptima entre los 5 y los 30 °C, en la que la mayoría de los seres vivos desarrollan sus funciones a la perfección.

Hay que tener en cuenta además que el proceso vital en cualquier organismo se compone de una gran cantidad de reacciones químicas que, como tales, dependen muy directamente de la temperatura a la que se realicen. De esta manera y siempre dentro del intervalo de temperaturas óptimas, a mayor temperatura, mayor velocidad de reacción y viceversa.

la vida en el planeta tierra

Los mamíferos pueden conservar el calor de sus cuerpos con independencia de la temperatura ambiental, pudiendo vivir en lugares muy fríos, como es el caso de los osos polares.

No obstante, es fácil encontrar en el seno de la biosfera zonas donde se sobrepasen, no sólo el rango de temperaturas óptimas, sino también el de temperaturas extremas, por lo que la gran mayoría de los organismos han desarrollado diferentes estrategias para mantener sus funciones vitales de manera adecuada bajo dichas condiciones.

Entre los seres vivos, son los animales por la variedad y complejidad de sus funciones, los que han tenido que desarrollar mecanismos más eficaces para el control de su temperatura interna. Dependiendo de cómo realizan este control, podemos distinguir entre animales poiquilotermos, como los reptiles, y homeotermos, como los mamíferos. A los primeros se les conoce vulgarmente como animales de sangre fría y a los segundos como animales de sangre caliente.

Los poiquilotermos se caracterizan por carecer de mecanismos eficientes para el control de su temperatura interna por lo que su metabolismo depende mucho de la del exterior, viéndose obligados, muchas veces, a pasar períodos de inactividad cuando las condiciones son extremas. En cambio, los homeotermos, consiguen mantener una temperatura interna siempre constante en torno a los 37 °C, lo cual les permite realizar sus funciones con bastante independencia de las condiciones ambientales.

reptil, la vida en el planeta

A Los reptiles, como el yacaré de la fotografía, no pueden mantener su temperatura interna de manera independiente a la del medio, por lo que únicamente pueden vivir en sitios cálidos.

Los vegetales generalmente combaten las temperaturas poco favorables perdiendo, de manera temporal, sus partes más sensibles (hojas, partes aéreas, etc.) y desarrollando estructuras especiales de resistencia (semillas, yemas, zonas leñosas, etc.).

La luz: La luz constituye un factor ambiental muy importante, ya que es la fuente de energía primaria a partir de la cual las plantas pueden desarrollar el complejo proceso de la fotosíntesis. Mediante este proceso se convierte la energía lumínica en energía química, la cual puede ser utilizada posteriormente en otros importantes ciclos metabólicos, bien por la misma planta o bien por otros organismos. La importancia de la fotosíntesis es tan grande que podemos afirmar sin duda alguna que el mantenimiento de la vida sobre la Tierra depende de este proceso.

La luz también influye en el desarrollo de la morfología de las plantas, determinando la dirección en la que deben crecer los tejidos y brotes permitiendo así una disposición óptima para la captación de energía.

Para los organismos no fotosintéticos, la luz es un factor que posibilita la visión y por tanto la facultad de relacionarse con el medio en el que viven. También interpone en los procesos de regulación de la actividad estacional. La distinta duración de los períodos de iluminación diurna a lo largo del año constituye un fenómeno denominado foto período que actúa como reloj biológico y sirve para desencadenar  importantes fases en la vida del organismo como por ejemplo la reproducen, la muda, la migración, la floración, etc.

En el medio acuático la penetración de a luz es menor que en el medio terrestre, le tal manera que a partir de los 200 m le profundidad reina una oscuridad absoluta. La zona comprendida entre la superficie del agua y la profundidad hasta donde llega la luz se denomina zona fótica, y es donde se acumula la mayor parte de los organismos acuáticos distribuyéndose en estratos o capas según las necesidades de luz que tienen.

La presión: El medio que rodea a los seres vivos ejerce una presión sobre ellos que también influye en la estructura y fisiología de los mismos.

En el medio terrestre, en el que los organismos están rodeados de aire, la presión se denomina presión atmosférica. Su valor varía ligeramente con la altura v la temperatura, de tal modo que al nivel del mar y 0°C, es de 760 mm. de Hg ( 1atmósfera), pero disminuye progresivamente a medida que ascendemos y también a medida que la temperatura aumenta. La  presión que se registra en el medio acuático se denomina presión hidrostática y su valor depende sólo de la altura de la capa de agua que hay por encima del organismo. S

u valor aumenta de manera lineal una atmósfera cada 10 m.  profundidad, de tal manera que a unos 10 m. la presión llega a ser de una tonelada por cada cm;. lo cual no impide que puedan vivir algunos organismos especialmente adaptados.

Esta variación de presión, si la comparamos con la que se produce en el medio terrestre, es muy grande, lo que provoca que la mayoría de los organismos acuáticos desarrollen sus actividades únicamente a la profundidad que están preparados para soportar, pudiendo perecer si la abandonan accidentalmente. Esta situación se hace drástica en los organismos que poseen cavidades internas rellenas de aire, como es el caso de muchos peces, mamíferos cetáceos y aves buceadoras. Estos organismos pueden morir aplastados o sufrir trastornos fisiológicos desastrosos si se sumergen a una profundidad excesiva.

El agua: El agua es la sustancia que se encuentra en mayor proporción formando parte de la materia de todos los seres vivos. En algunos casos puede llegar a constituir más del 90% del volumen total del organismo. Su importancia queda patente si consideramos la gran cantidad de funciones que realiza: sirve de disolvente en las reacciones bioquímicas que se producen en el interior de la célula; es el medio de transporte de los nutrientes y desechos en muchos organismos; interviene en la transpiración y fotosíntesis de las plantas; sirve de esqueleto hidrostático en muchos invertebrados; constituye el medio en el que viven los organismos acuáticos y, por último, sirve de controlador de la temperatura ambiental y corporal dada su elevada capacidad calorífica.

Todo organismo mantiene un equilibrio por el que se pierde y se incorpora agua continuamente durante el desarrollo de sus actividades vitales y que recibe el nombre de equilibrio hídrico. Todos los seres vivos, desde los protozoos unicelulares hasta los mamíferos más grandes poseen mecanismos para controlar eficazmente dicho equilibrio. Su mantenimiento es más fácil en los organismos marinos que en los que viven en agua dulce.

En los organismos terrestres es donde se dan los mecanismos de regulación más sofisticados, porque son los que más fácilmente pueden perder el agua que contienen (por transpiración, respiración, etc.) sufriendo, además, mayores dificultades para incorporarla. Es por ello que la disponibilidad de agua constituye un importante factor que condiciona enormemente la distribución de los organismos terrestres.

Fuente Consultada: DIDÁCTICA Enciclopedia Temática Ilustrada Editorial Oriente

La Eutanasia Sólo Dios puede quitar la vida? La etica y moral

EUTANASIA: Muchas confesiones religiosas, como la cristiana y la judía, creen que Dios dá la vida y por lo tanto sólo a El corresponde la potestad de quitarla. En este contexto, la eutanasia sería considerada como rechazo a la soberanía de Dios. Desde otro punto de vista, sin embargo se califica de injusta la utilización de un argumento religioso para decidir política y públicamente sobre un tema tan trascendental y complejo como éste.

Ver Testamento Publico de Ramón Sampedro

Algunos antecedentes históricos

La civilización griega fue la primera en emplear la palabra euthanasia, para quienes significaba una buena muerte (tahanatos).  La misma era aprobada por el estado, ya que los gobernadores contaban con veneno para todo aquel que deseaba morir, otorgándoles a su vez una autorización oficial: «Quien no desee vivir debe exponer los motivos al Senado y una vez lo haya recibido, puede quitarse la vida. Si existencia te resulta odiosa, muere; si el destino te es adverso, bebe cicuta. Si la pena te abruma, abandona la vida. Dejad que el infeliz relate su desgracia, dejad que el magistrado le proporcione el remedio para que él mismo pueda ponerle fin». Esto sucedía básicamente en Atenas, Quíos y Massalia.

Sin lugar a dudas, que Grecia era una sociedad que aceptaba la eutanasia como práctica ideada hacia un buen morir, con la finalidad de evitar la mala vida. Sin embargo, esta práctica tiene sus defensores y detractores desde la antigüedad, hasta nuestros días. Por ejemplo, desde épocas muy remotas quienes defendían a la eutanasia eran Sócrates y Platón, quienes se aferraban a la idea de que una enfermedad dolorosa y que llevara a un alto sufrimiento, sería una buena razón para dejar de vivir.

Heródoto era un médico, y profesor de Hipócrates, condenado por el filósofo en la República por «fomentar las enfermedades e inventar la forma de prolongar la muerte» y agrega «por ser maestro y de constituir enfermiza; ha encontrado la manera, primero de torturarse a sí mismo, y después al resto del mundo».  Pese a ello, hay quienes se oponían a esta práctica condenándola, por ejemplo grupos como los pitagóricos, aristotélicos y epicúreos.

No obstante, Grecia no fue la única que permitía este tipo de práctica. En Roma, se creía que un enfermo Terminal podía suicidarse porque poseía motivos suficientes y valederos para hacerlo.  Por lo que sólo se penalizaba al suicidio ilógico y sin relación al padecimiento de una enfermedad. Entonces la ideología romana era que vivir notablemente significaba por lo tanto morir de la misma manera. Tal es así que hasta los aristócratas prisioneros se les concedía frecuentemente evitar ser ejecutados mediante la opción del suicidio. Imaginémoslos a través de las palabras de Séneca el estoico: «Hay una gran diferencia entre un hombre que prolonga su vida o su muerte. Si el cuerpo ya no sirve para nada, ¿por qué no debería liberarse al alma atormentada? Quizá sería mejor hacerlo un poco antes, ya que cuando llegue ese momento es posible que no pueda actuar».

Este hecho comenzó a girar radicalmente cuando el suicidio es castigado con la negación de una “cristiana sepultura” a la persona que violentaba contra su propio vida. Hecho que tomó su impulso cuando en el mundo occidental dominó la religión cristiana. Si una persona padecía alguna enfermedad y su sufrimiento era muy intenso, no se podía pensar en la mínima posibilidad de un alivio piadoso. Es por esto que este rechazo llega a marcar influencia en la esfera de la legislación civil. Por ejemplo, la víctima era partícipe de un entierro degradante y un posterior abandono en la vía pública, tras la expropiación de sus bienes. Cabe aclarar que no se realizaban excepciones, aunque haya sido una persona que sufriera una enfermedad incurable.

Según esta posición, las funciones de la Iglesia y del Estado son usurpadas por el suicida. Tal es así que el suicidio- contrario al quinto mandamiento cristiano, “no matarás”, fue bien definido hacia el siglo IV por San Agustín, como “detestable u abominable perversidad”.  ¿Por qué dice esto? Porque Dios es el que concede la vida y también los sufrimientos, entonces como cristianos la obligación es soportarlos. Y es la Iglesia quien con su poder regla las costumbres y las prácticas de la sociedad. Entonces, estas nociones son en la Edad Media la muestra de toda su dominación.

Sin embargo, este dominio de la Iglesia se fue debilitando como producto de un renovado Interés por el individualismo, hecho que se dio en el Renacimiento cambiando la concepción del suicidio, tema en cuestión hasta el momento.  Esto favoreció a flexibilizar y complejizar todas aquellas decisiones morales referidas a la vida y la muerte. Desde aquí se comenzó a hablar de una eutanasia voluntaria, como lo hizo Tomás Moro en su obra titulada Utopía, en 1516, donde el autor describía este hecho con autorización oficial inserto en una sociedad ideal. Por otra parte, Montaigne, también escribió sobre el tema plasmado en cinco ensayos y concluyendo en que la eutanasia es una elección personal y racional bajo algunas circunstancias.  Ya que el consideraba que el suicidio era un acto justificado, mientras que en la escala de la naturaleza, el hombre tenga dignidad y habilidad para valorarse a sí mismo.

Actualmente, “el debate es entre dos concepciones de la autonomía individual. “Los que quieren legalizar la eutanasia afirman que este derecho [a la muerte] es ilimitado y es exigible por el individuo frente a la sociedad y los médicos”. En cambio, los contrarios a la eutanasia “sostienen que la preocupación por el bien común exige poner límites a una reivindicación individual que, si se reconociera por ley, daría paso a un derecho a la muerte incompatible con las fuentes morales de la democracia”. Estos, conscientes de la función simbólica que tienen las leyes, “se niegan a convertir la justicia en un calco de meros deseos individuales y no separan el derecho de una reflexión filosófica sobre la condición humana. La política, lejos de reducirse al arte de conquistar y conservar el poder, supone que las decisiones se articulen según valores comunes“. (La Eutanasia, una solución anticuada; en http://www.condignidad.org/eutanasia-anticuada)

La posición de la Iglesia católica ante la eutanasia

La institución que actualmente rechaza y combate a la eutanasia, es la Iglesia católica, la cual ha realizado una serie de declaraciones al respecto a través de la Comisión Permanente Episcopal: “Respetamos sinceramente la conciencia de las personas, santuario en el que cada uno se encuentra con la voz suave y gente del amor de Dios. No juzgamos el interior de nadie.

Comprendemos también que determinados condicionamientos psicológicos, culturales y sociales pueden llevar a realizar acciones que contradicen radicalmente la inclinación innata de cada uno a la vida, atenuando o anulando la responsabilidad subjetiva. Pero no se puede negar la existencia de una batalla jurídica y publicitaria, con el fin de obtener el reconocimiento del llamado ‘derecho a la muerte digna’, es esta postura pública la que tenemos que enjuiciar y denunciar como equivocada en sí misma y peligrosa para la convivencia social. Una cosa son la conciencia y las decisiones personales y otra lo que se propone como criterio ético legal para regular las relaciones entre los ciudadano”.

La Iglesia católica considera que el aprecio por toda vida humana fue un progreso introducido por el cristianismo, lo que supone que se vive en la actualidad es un retroceso.  Un retroceso que hay que colocar en lo que el Papa denomina “cultura de la muerte”.

De esta manera, la Iglesia considera a la eutanasia  como aquella actuación cuyo objeto es causar la muerte a un ser humano para evitarles sufrimientos, bien a petición de éste, bien por considerar que su vida carece de calidad mínima para que merezca el calificativo de digna. Esta práctica convertiría a la eutanasia en una forma de homicidio, pues implica que un hombre da muerte a otro, ya mediante un acto positivo, ya mediante la omisión de la atención y cuidados debidos.

De la eutanasia, así entendida, el Papa Juan Pablo II enseña solemnemente: ‘De acuerdo con el Magisterio de mis Predecesores y en comunión con los Obispos de la Iglesia católica, confirmo que la eutanasia es una grave violación de la Ley de Dios en cuanto eliminación deliberada y moralmente inaceptable de una persona humana’.

La batalla política sobre la eutanasia

Actualmente, la eutanasia se transformó en una problemática que conjuga un dilema jurídico y moral. Un dato certero es el que demuestra el aumento, en los últimos años, del número de asociaciones pro-eutanasia, desplegando una intensa actividad divulgativa y reivindicativa a favor del derecho individual de las personas para elegir sobre su propia vida. Al mismo tiempo, estas asociaciones se ven combatidas por la “cruzada a favor de la vida” encabezada por las organizaciones religiosas.

Diversas asociaciones han luchado contra los que defienden la posibilidad de elegir una muerte digna. Los argumentos que legitiman a estos grupos oscilan entre el respeto a la voluntad divina hasta el miedo a crear lagunas jurídicas que proporcionen impunidad a posibles asesinatos. Los debates sobre la eutanasia generalmente terminan siendo dominados por prejuicios morales, religiosos, emocionales, etc.

Sin cuestionar los diferentes puntos de vista, cabría preguntarse: ¿se le puede aplicar la eutanasia o asesoramiento en su suicidio a un enfermo terminal, que considere que su vida no es razón suficiente para soportar un dolor intratable, la pérdida de dignidad o la pérdida de importantes facultades, y que pide repetidamente ayuda para morir, siendo consciente y sin estar en capacidad de fingir una depresión?.

La problemática de la eutanasia conjuga y enfrenta diversos posicionamientos frente a los derechos humanos. En este sentido, numerosas asociaciones pro eutanasia han comenzado una campaña de concientización de la sociedad, para que ésta reconozca el derecho de cada individuo a decidir sobre su propia vida. Por otro lado, otro sector de la sociedad, encabezado por las asociaciones religiosas, se oponen drásticamente a la legalización de la eutanasia. En la actualidad, la eutanasia se ha convertido en una ardua batalla de carácter político.

 Formas de aplicación de la eutanasia

La eutanasia pasiva hace referencia a la muerte natural, es un termino que muchas veces es utilizado de forma errónea por  los medios de comunicación. La misma se produce cuando se suspende el uso de los instrumentos que apoyan la vida o aquellos suministros de medicamentos, de tal forma que se produzca la muerte que no contraría la ley natural.

Por el contrario, la eutanasia activa supone la intervención directa que ocasiona la muerte del paciente poniendo fin a su sufrimiento. En general, los defensores de esta opción, coinciden en la necesidad de que existan condiciones previas que permitan realizarla como la solicitud directa por parte del paciente o enfermo terminal de querer poner fin a su vida, la imposibilidad de la medicina para salvarle, la incapacidad de los fármacos para evitar su dolor y sufrimiento y el consentimiento de médicos y familiares, entre otras.

 Con respecto a ello, se ha expresado anteriormente cuales son las posiciones de los detractores religiosos en cuanto a este tema. Sin embargo, más allá de estos grupos, los detractores de la eutanasia, en su lucha por impedir su aprobación legal, argumentan que al estar el suicidio asistido y/o la eutanasia disponibles,  esto daría lugar a que algunos sujetos presionaran a sus familiares para que acepten morir, poniendo de relieve la dificultad de establecer controles estrictos para probar la influencia de otros sobre la decisión del paciente. Otras personas desearán morir porque sufren de depresión clínica, invalidando esta condición una decisión consciente.

El suicidio asistido se relaciona vagamente con la eutanasia, éste se produce cuando alguien le da información y los medios necesarios a un paciente para que pueda terminar fácilmente con su propia vida.

Eutanasia: ¿Derecho a morir?
En este tiempo de penumbra ética en que nos ha tocado vivir, la eutanasia (literalmente, buena muerte) aparece como una alternativa cada vez más aceptable por la sociedad mundial. Con el devenir de los años el permisivismo será todavía mayor. Por ello viene bien escuchar alguna voz autorizada en la materia, como la del Dr. Luis Aldo Ravaioli.

“El médico, profesional de la vida, no puede ser el brazo ejecutor de los designios homicidas. Y esto no es un problema de religión o de creencias, es un compromiso serio que abarca a todos los hombres de buena voluntad. Todos estamos llamados a respetar y tutelar la vida humana.

No hay hombres de buena voluntad, creyentes o no creyentes, que puedan negarse a respetar la vida humana, particularmente cuando el medio ambiente ejerce una presión en contrario. El respeto por los derechos del hombre y por la ética objetiva, así lo exigen. Este es el compromiso de las profesiones sanitarias, es un compromiso solemne que dignifica a la medicina y a los médicos. Más allá de las concesiones legales, aunque inmorales, y del permisivismo social, los hombres honrados deben defender la vida, tutelarla y promoverla.

La eutanasia, sea eugénica, piadosa, positiva, negativa, directa, voluntaria, involuntaria, suicidio, suicidio asistido, etc.. constituye siempre un atentado contra el hombre y la sociedad, contra el orden natural y el revelado. No es una práctica médica, hablando con propiedad, ya que la esencia de la medicina no consiste en matar o dejar morir.

Estas acciones son un retraso científico y un retroceso histórico, un anacronismo primitivo injustificable e insostenible. La valoración ética de la eutanasia es negativa e instrínsecamente mala.

Ninguna sociedad mejoró, ninguna ciencia progresó, ningún hombre fue más bueno, ni ningún problema se resolvió, aceptando la idea de que hay vidas que no deben tutelarse, de que hay vidas sin dignidad ni trascendencia”.
Para terminar, un buen consejo para los pacientes, del Dr. John Wilke, de la Universidad de Cincinnati: “Si no le pueden aliviar el dolor, no pida usted la eutanasia. Cambie de médico, porque el suyo es incompetente”

Fuente: Diario “El Colono” Edición N°2048

Fuente Consultada:
Basado en La Gran Enciclopedia Universal (Espasa Calpe) – Wikipedia

La eugenesia las especies y la reproduccion de los mejores Darwinismo

ESPECIE: Conjunto de individuos capaces de dar origen a hijos que puedan tener descendencia fértil. Definiciones algo más concretas, hablan de «especie evolutiva», entendida como —siguiendo la definición del naturalista George G. Simpson (1902-1984)— una estirpe (o secuencia de poblaciones de ancestros-descendientes) que evoluciona separadamente de otras y que tiene un papel y unas tendencias de evolución propias y de carácter unitario.

Éste es el concepto más ampliamente aceptado y de mayor consenso, al menos entre los zoólogos. El asumir una especie como biológica, implica evolutivamente asumir que es una población reproductivamente aislada, por lo que constituye un linaje evolutivo separado y que es reforzado por una serie de barreras que pueden ser de carácter geográfico o biológico

En realidad, el concepto de especie tiene mucho de ambiguo. Generalmente, las poblaciones vecinas de un determinado animal pueden cruzarse, pero entre poblaciones de áreas geográficas más alejadas puede producirse una disminución de la fertilidad si intentan el cruzamiento, hasta llegar a la imposibilidad entre poblaciones muy distantes. Se puede entender esta reducción progresiva de la fertilidad como debida a la posesión de dotaciones cromosómicas que se van diversificando a medida que aumenta la distancia.

Eugenasia

Ahora bien, los miembros de esas poblaciones distantes e infértiles por cruzamiento, ¿pertenecen a la misma especie o a especies diferentes? Como no pueden cruzarse, habría que asignarlos a especies diferentes. Pero como están conectados por una serie continua de poblaciones cruzables, se podría considerar que, a fin de cuentas, pertenecen a la misma especie. Desde este punto de vista, el concepto de especie tiene algo de relativo, aunque, por otra parte, no deja de ser consecuente con el gradualismo histórico darwiniano.

Además, el concepto moderno de especie, basado en el aislamiento reproductivo, no es fácil de aplicar a aquellos organismos eucariotas (dotados, recuerden, de núcleos) que se reproducen sin apareamiento, de modo que cada miembro de la especie está aislado reproductivamente. Problemas parecidos los plantean aquellas especies que se reproducen de forma vegetativa (por fisión del progenitor), por partenogénesis (desarrollo a partir de óvulos no fertilizados) o por auto fertilización de un hermafrodita. En esos casos hay que recurrir a otros criterios de clasificación.

La verdad, no encuentro ningún placer en estos tipos de diferenciación que con más frecuencia de la deseada han conducido —aunque sea indirectamente— a la discriminación, a contemplar a «los otros» como enemigos, o como esclavos (esto es patente con los «otros animales», los no humanos, que nuestra especie maltrata a menudo innecesariamente). Encuentro un mayor consuelo en los análisis de parentesco  entre especies diferentes que se realizan analizando las cadenas de aminoácidos de algunas de sus proteínas, y que nos hablan de la cercanía que nos une a, por ejemplo, los caballos.

Me doy cuenta de que estos argumentos míos son, en este punto, poco científicos, pero, lo repito una vez mas: no doy la espalda a encontrar en los resultados de la investigación científica algún que otro apoyo para causas morales.

EUGENESIA: Movimiento iniciado en las últimas décadas del siglo XIX, que sostenía que la mayoría de las características humanas eran estrictamente hereditarias y que había que mejorar la especie humana, favoreciendo la reproducción de los mejores especimenes y dificultando la de aquellos con deficiencias.

Los eugenesistas mantenían que no sólo los rasgos físicos, como el color de los ojos y la altura, sino también los atributos de la personalidad estaban determinados genéticamente (en un sentido mendeliano) y que para elevar el nivel de la población había que proceder poco más o menos como los ganaderos: favorecer la reproducción de los «buenos» sujetos y aminorar, o incluso detener, la reproducción de los «malos». A finales del siglo XIX y comienzos del XX, ayudado por la credibilidad que le otorgaba una presunta base científica, el programa eugenésico se extendió ampliamente, en especial en Estados Unidos y en algunos países de Europa.

Fue en Estados Unidos donde la fe en la genética mendeliana aplicada a los seres humanos se llevó a la práctica por vez primera: en 1907 el estado de Indiana aprobó las primeras leyes. que permitían la esterilización de los enfermos mentales y criminales patológicos; a finales de la década de 1929 veintiocho estados y una provincia canadiense habían introducido legislaciones parecidas.

Detrás de las ideas eugenésicas, se encuentra la convicción de que la vida humana puede reducirse a la biología y que las instituciones humanas se conducirán mejor teniendo en cuenta las «realidades» del determinismo biológico.

Ahora bien, semejante idea es cuestionable, y ello independientemente de que el punto de partida científico sea correcto o no (ya señalaba esto a propósito del determinismo biológico), de que, por ejemplo, las ideas eugenésicas hubieran resultado ser correctas desde el punto de vista científico. El problema es que el universo en el que se mueven los seres humanos no coincide exacta, ni siquiera necesariamente, con el universo del conocimiento científico. Aldous Huxley (1894-1963) expresó de manera magnífica tal diferencia cuando escribió:

El mundo al que se refiere la literatura es el mundo en el que los hombres son engendrados, en el que viven y en el que, al fin, mueren. El mundo en el que aman y odian, en el que triunfan o se los humilla, en el que se desesperan o dan vuelos a sus esperanzas. El mundo de las penas y las alegrías, de la locura y del sentido común, de la estupidez, la hipocresía y la sabiduría. El mundo de toda suerte de presión social y de pulsión individual, de la discordia entre la pasión y la razón, del instinto y de las convenciones, del lenguaje común y de los sentimientos y sensaciones para los que no tenemos palabras… [Por el contrario], el químico, el físico, el fisiólogo son habitantes de un mundo radicalmente diverso —no del mundo de los fenómenos dados, sino de un mundo de estructuras averiguadas y extremadamente sutiles; no del mundo experiencial y de los fenómenos únicos y de las propiedades múltiples, sino del mundo de las regularidades cuantificadas

Fuente Consultada: Diccionario de la Ciencia Jose M. Sanchez Ron

Etapas del Desarrollo del Bebe Evolucion del Feto en el Embarazo

Etapas de la Evolución de un Bebe Mes a Mes

EMBARAZO, las etapas de desarrollo:

Primer mes: organización del embrión Ya hemos visto que, tras la fecundación, las células comienzan a multiplicarse y que el huevo, a su llegada al útero, es un pequeño amasijo de células. Algunas de ellas constituirán el núcleo embrionario, que al principio es un fino disco de células, el cual va alargándose y adoptando una forma ovoide. Al cabo de dieciocho días, se imbrican las diferentes hojas para formar un disco embrionario en el que se hallan representadas todas las futuras regiones del cuerpo, pero situadas en un mismo plano horizontal.

Este disco embrionario mide 1,17 Mm. de longitud. Las tres primeras semanas son inciertas para el embrión: uno de cada dos huevos muere antes de la anidación; un tercio de los supervivientes es evacuado antes del final de la tercera semana. La naturaleza efectúa así una especie de selección que pasa desapercibida. Hacia el treintavo día, el embrión mide de 2 a 6 Mm.

Tiene el aspecto de una larva sin patas, enrollada sobre ella misma, con un extremo hinchado, la futura cabeza, dotada de una aberturas branquiales, como las de un pez. Por el mismo tiempo se forma un pequeño riñón primitivo, destinado a desaparecer algunos días más tarde, y que se parece a una porción de riñón de pescado (del tipo del de la lamprea). Más tarde aparece un nuevo riñón, también efímero, comparable al de una rana: son circunstancias pasajeras.

En la cara ventral del embrión se distingue también el saliente del corazón. Las primeras contracciones cardíacas aparecen hacia el veinteavo día y suponen el comienzo de la circulación sanguínea embrionaria. Al final del primer mes, se esboza el sistema nervioso. Ya se adivinan los futuros miembros a los lados. El embrión tiene, en el lugar en el que estará el coxis, un apéndice caudal, que más tarde desaparecerá.

Segundo mes: el embrión toma forma. Las transformaciones en el curso de este periodo son importantes tanto en lo concerniente al aspecto exterior como en la organización interna. Hacia el cincuentavo día, el embrión crece, mide 3 cm. La cabeza ha aumentado considerablemente de tamaño; se encuentra todavía en continuación directa con el cuerpo, pero ya se levanta un poco.

Se distingue un esbozo de los ojos, de las orejas y de la boca: el labio superior está ya formado, pero la cavidad nasal no se halla separada todavía de la cavidad bucal; las ventanas de la nariz están obturadas por un tapón de piel.

Los brotes de los miembros se han alargado: se dividen en dos y después en tres segmentos; en la primera parte aparecen cuatro surcos que, al hacerse más profundos, separarán los cinco dedos de cada extremidad. El esbozo de cola ya casi ha desaparecido. Se dibujan los órganos genitales, pero es todavía necesario un profundo estudio de los tejidos glandulares para distinguir los dos sexos.

Comienzan a formarse la mayor parte de los órganos. El corazón se estructura de una forma más completa. Se coloca en su sitio el segundo sistema circulatorio, el sistema pulmonar, que comenzará a funcionar en el momento del nacimiento. El hígado se halla muy desarrollado en comparación con los restantes órganos. Aparecen las primeras trazas de osificación. Los músculos del tronco, de los miembros y de la cabeza comienzan a entrar en acción, pero sus movimientos son todavía muy débiles para poder percibirse a través de las membranas y del útero.

Tercer mes: el embrión se convierte en feto Al comienzo del tercer mes, el embrión toma el nombre de feto. En el curso del periodo fetal, los órganos, ya esbozados, se afirmarán y sufrirán un aumento de tamaño: sólo el sistema nervioso y el aparato genital seguirán estando sometidos a importantes modificaciones y continuaran sin completar incluso después del nacimiento.

A los tres meses, el feto alcanza una longitud total de 10 cm. Tiene todavía una cabeza muy gruesa en relación con el resto del cuerpo.

Pero se dibuja el cuello, b nariz toma forma, aparecen los párpados que se suelen entre sí y el sexo es fácilmente identificable. Se distinguen las uñas. Se precisan las articulaciones del feto, permitiéndole ejecutar ya débiles movimientos. El desarrollo de los órganos es cada vez más complejo y algunos comienzan a funcionar: el hígado segrega bilis y la médula espinal forma ya algunos glóbulos. El feto puede beber: traga líquido amniótico, provocando así el funcionamiento de su aparato digestivo. Algunos huesos, están ya bien esbozados y aparecen otros puntos de osificación. El cerebro y los pulmones tienen ya su estructura general definitiva.

Cuarto mes: movimientos perceptibles Las relaciones de proporción entre la cabeza y el cuerpo se modifican, ya que el cuerpo se desarrolla más rápidamente.

Cada día se modelan con más nitidez los rasgos del rostro y aparecen los cabellos. Es también el momento en que la madre siente moverse a su hijo por vez primera, ya que es capaz de hacer funcionar sus músculos con la fuerza suficiente para que sus movimientos puedan notarse a través de las paredes del útero. El feto puede abrir y cerrar las manos, estornuda y traga.

Sin embargo, no mide más que de 18 a 20 cm. de longitud total, aunque en realidad son sólo 13 cm. ya que tiene las piernas replegadas sobre el vientre, y no pesa más que 150 g. La piel se cubre con una capa blanquecina, el vermix caseoso, y con un fino vello, el lanugo, especialmente abundante sobre los hombros, las ingles y las axilas.

Quinto mes: crece más aprisa En este momento, el feto mide alrededor de 27 cm. y pesa unos 400 g. Su crecimiento se hace cada vez más rápido. El cuerpo sigue siendo delgado, pero alcanza las proporciones del de un recién nacido. Los dientes de leche se recubren de esmalte y de marfil, mientras se forman los esbozos de los dientes definitivos: es pues en este momento cuando se determina la calidad de los dientes del futuro adulto.

Por ello es por lo que se recomienda a las mujeres encinta que vigilen que su régimen alimenticio contenga el calcio y el flúor necesario para la formación de la dentición del feto.

La nariz comienza a osificarse y las aletas están ya abiertas. A partir del quinto mes, el crecimiento del feto y el incremento de sus necesidades obligan a la placenta a aumentar de tamaño y de peso: el disco placentario alcanzará a los nueve meses un diámetro de 20 cm., con un espesor de 3 cm. y un peso de 500 g.

A los cinco meses, el feto goza aún de mucho espacio y no se priva de moverse. Puede que comience en esta época a chuparse el pulgar.

Sexto mes: ve la luz A los seis meses, el feto mide 34 cm. y pesa 1 kg. Los órganos genitales sufren todavía una evolución importante: aparecen las glándulas uterinas y bajan los sacos vaginales y los testículos. Se fisura el cerebro y se dibujan las circunvoluciones. Las capas de la retina están ya todas y en el fondo del ojo.

Es probable que el feto sea capaz de percibir la luz en esta época. Sus párpados, herméticamente soldados al principio, se hallan ahora completamente abiertos.

El feto percibe sonidos, oye el ruido regular del corazón materno y puede sentirse molestado por los borborigmos intempestivos de los intestinos o por los ruidos procedentes del exterior. Ciertos médicos afirman incluso que es sensible a la música.

Séptimo mes: ya está dispuesto el aparato respiratorio El tercer trimestre del embarazo es esencialmente un período de crecimiento, de aumento muy rápido de peso y de tamaño, y de maduración. Las últimas transformaciones que preparan al feto para la vida extra-uterina se producen hacia los comienzos del séptimo mes. A partir de este momento, el niño nacido antes de tiempo, es un prematuro con posibilidades de supervivencia. Mide 39 cm. y pesa 1.600 gramos. Hacia el sexto mes, el árbol respiratorio, con sus ramificaciones de bronquios, se coloca en su sitio. En e séptimo mes comienza el estadio alveolario, con los alvéolos, que constituyen la zona de intercambios respiratorios.

El conjunto muscular y esquelético del tórax alcanza el grado de desarrollo necesario para la función respiratoria, al mismo tiempo que los centros nerviosos que lo dirigen. Desde este momento, el nacido prematuramente es capaz de utilizar el oxígeno atmosférico y puede vivir. Sin embargo, en el séptimo mes, el feto se parece a un conejo despellejado: delgado, con una piel lisa y roja, está preparado para vivir, pero aún no ha alcanzado la madurez.

Octavo mes: engorda En el transcurso de los dos últimos meses, doblará su peso, engordando tanto como durante los siete meses precedentes. Proporcionalmente, crece menos. Sus formas pues se redondean, su piel se hace mas tensa sobre una delgada capa de grasa. Sus uñas y sus cabellos siguen creciendo. En contrapartida, le caerá un poco de lanugo, esa fina pelusilla que cubría casi todo su cuerpo hacia el sexto mes.

Por ello, el niño nacido a término tiene una pilosidad menos desarrollada que el prematuro. Los huesos se solidifican, aunque el esqueleto no estará aún terminado en el momento del nacimiento. Los huesos de los pies, de las manos y el esternón son todavía cartilaginosos.

Finalmente, habrá que esperar todavía de quince a dieciocho meses para que se suelden las fontanelas, que son los puntos de unión de los diferentes huesos del cráneo. Ello explica a la vez la fragilidad de la cabeza del recién nacido, cuyo cerebro no está todavía bien protegido, pero también su flexibilidad, lo que puede facilitar el parto. Al final del octavo mes, el feto mide 45 cm. y pesa 2.200 gramos.

Noveno mes: preparado para nacer En el noveno mes, el feto mide 50 cm., y pesa alrededor de 3 kilos. Ha adquirido fuerza y comienza a sentirse muy estrecho en su receptáculo, hecho que manifiesta dando patadas, pudiendo alcanzar en ocasiones las costillas de la madre, cuando consigue estirar las piernas. Algunas de sus reacciones son muy evidentes y ya individualizadas: algunos se agitan cuando la madre toma un baño demasiado caliente; otros cuando se acuesta sobre la espalda, puesto que entonces se apoya sobre la columna vertebral, en una postura bastante incómoda.

En contrapartida, el ritmo de un paseo realizado con paso regular les acuna y les calma. Cuarenta semanas después de su concepción, ya casi preparado para nacer, el bebé es 2.500 veces mayor que el huevo del que proviene y 800 millones de veces más pesado. Está compuesto por alrededor de 26 billones de células… y todo ello no es más que un comienzo, un nacimiento.

Estas fotos fueron tomadas del libro: “A Child Is Born“, por Lennart Nilsson (Autor).

Biografia y Obra de Dimitri Mendeleiev La Tabla de los Elementos Quimicos

Biografia y Obra de Dimitri Mendeleiev
La Tabla de los Elementos Químicos

Historia: Ordenando los elementos:

Biografia y Obra de Dimitri MendeleievDe vez en cuando llega un científico que sugiere una nueva manera de pensar. Cuando esto ocurre, decimos que la ciencia tiene un nuevo paradigma, un nuevo modelo del mundo natural.

El paradigma que dio sentido a la química y que todavía sustenta el armazón de la ciencia es la tabla periódica, que tiene sus orígenes en el trabajo del químico ruso Dmitri Mendeleyev.

Mendeleyev nació en Tobolsk, Siberia occidental, en 1834, y era el más joven de 14 hijos. Su padre era director de la escuela secundaria local, pero quedó ciego el mismo año en que nació Mendeleyev. Su madre era la hija de un empresario, y volvió a abrir una de las fábricas de su padre para apoyar a su familia. El joven Dimitri no tenía ningún interés por aprender, pero un tutor privado le inspiró el amor por la ciencia.

Cuando tenía trece años murió su padre y ardió la fábrica de su madre. Esta, al no quedarle ya ninguna razón para permanecer en Siberia y deseando mejorar la educación de su hijo, viajó 2.000 kilómetros/1.300 millas hasta Moscú con Dimitri y una hija mayor que él. En Moscú se le negó la entrada en la universidad; así que viajaron otros 650 kilómetros/400 millas hasta San Petersburgo, donde un amigo de su padre le consiguió una beca para estudiar ciencia en el Instituto Pedagógico Central, adjunto a la universidad. Su madre y su hermana murieron un año después, y él fue admitido en el hospital del instituto aquejado de tuberculosis. Le dieron dos años de vida, pero sobrevivió.

Tras una larga estancia en el hospital, se convirtió en maestro y conferenciante no pagado de la Universidad de San Petersburgo, dependiendo de las cuotas de los estudiantes privados. Cuando tenía veintidós años, obtuvo una beca para estudiar en el extranjero. Primero fue a París y después a Heidelberg, donde tuvo la suerte de conocer a Bunsen y a Kirchhoff, directores de las investigaciones que sentarían los cimientos de la espectroscopia.

En septiembre de 1860 viajó a Karlsruhe, Alemania, para asistir al Primer Congreso Internacional de Química, que se celebró para sellar una disputa sobre qué sistema era mejor para llegar a los pesos de los elementos individuales. A él acudieron 140 de los químicos más eminentes del mundo, y los discursos que oyó le despertaron un interés que le duró el resto de su vida.

En 1860, la química todavía estaba confusa. En los cincuenta años desde que Dalton perfilase su teoría atómica, varios químicos, sobre todo Berzelio, construyeron sobre los cimientos que puso él, pero todavía no existía un consenso general sobre los aspectos más básicos de esta ciencia. La confusión era tal que existían 20 fórmulas diferentes para describir compuestos bastante simples.

Una contribución significativa a la regularización del tema fue hecha por el químico inglés Edward Frankland. Nacido en Lancashire, en 1825, era aprendiz de farmacéutico que había estudiado química por cuenta propia, con tan buenos resultados que logró un doctorado por la Universidad de Marburgo en Alemania, y se convirtió en profesor de química en el Owens College de Manchester. En 1852 había introducido el concepto de valencia: la idea de que los átomos de cada elemento individual tenían una capacidad específica propia para combínarse con los átomos de otros elementos, y que esto determinaba las proporciones en las que se unían para formar compuestos. El hidrógeno tiene una valencia 1 y el oxígeno una valencia 2, así que un átomo de oxígeno se combinará con dos átomos de hidrógeno para formar una molécula de agua, que se escribe 1120. De forma semejante, un átomo de carbono, que tiene una valencia 4, se combinará con dos átomos de oxígeno, que tiene valencia 2, para formar una molécula de anhídrido carbónico o CO2. Por tanto, la valencia se convirtió en una herramienta útil para el trabajo diario de los químicos… pero el motivo de que los elementos poseyeran esa propiedad no quedaría claro hasta cinco décadas después.

Una contribución importante a la comprensión de los elementos fue la de otro portavoz en la conferencia, el italiano Stanislao Cannizzaro. Hijo de un magistrado, nació en Palermo, Sicilia, en 1826. Tuvo una carrera pintoresca, que incluía el destierro en París por su participación en una insurrección contra el rey de Nápoles en 1848. Más tarde pudo volver a Italia, y en el momento que se celebró la conferencia era profesor de química en Génova. En 1858había publicado un folleto en el que establecía por primera vez la distinción crucial entre átomos y moléculas.

El libro de texto de Mendeleyev

Los discursos de Cannizzaro en Karlsruhe tuvieron un efecto poderoso en Mendeleyev. Este volvió a Rusia convencido de la verdad de la afirmación de Cannizzaro, de que la única medida racional del peso de un elemento era la del peso de sus átomos individuales. Esta seguridad inspiraría sus investigaciones futuras.

En su vuelta a San Petersburgo, en 1861, obtuvo un puesto de profesor en el Instituto Técnico, y rápidamente se convirtió en un evangelista de las últimas ideas en química, casi desconocidas en Rusia. Al descubrir que no existía ningún libro de texto ruso sobre química orgánica (la química de los compuestos que forman la base de la materia viviente), decidió escribir uno… y lo terminó en dos meses.

En 1866, cuando tenía treinta y dos años, se convirtió en profesor de química de la universidad. Poco después empezó a escribir un libro de texto titulado Los principios de la química, cuyo primer volumen apareció en 1868. Fue un libro que se traduciría a muchos idiomas y que se convirtió en el texto estándar para dos generaciones de estudiantes. Estaba escribiendo el segundo volumen cuando hizo el descubrimiento que ordenó los elementos y aseguró su fama.

El sueño de Mendeleyev

Hacía tiempo que se sabía que ciertos elementos compartían propiedades similares, y los químicos habían empezado a preguntar-se si sería posible clasificarlos tal como Linneo había clasificado a los animales. En 1864, el químico inglés John Newlands atrajo atención al hecho de que, silos elementos se colocan según el orden de sus pesos atómicos, la tabla resultante mostraba una periodicidad, lo que significaba que algunas características similares se repetían a intervalos regulares. Expresó esa idea en una regla que llamó la ley de los octavos, dado que esas características similares parecían repetirse cada ocho lugares de la tabla. Pero cuando anunció su «descubrimiento» en una reunión de químicos, fue ridiculizado.

Mendeleyev era consciente del trabajo de Newlands, pero no le gustaba la manera en que lo expresaba. En particular, detestaba la forma en que algunos elementos parecían haber sido metidos con calzador para mantener la impresión de periodicidad. Cuando empezó el segundo volumen de su libro de texto, intentó encontrar algo que le proporcionara un armazón para entender la relación de un elemento con otro pero que le librara de los defectos que percibía en el esquema de Newlands. Estaba convencido de que la química no podría ser una verdadera ciencia hasta que se identificasen unos principios fundamentales subyacentes en la práctica.

El principio organizativo de su libro era agrupar los elementos según sus propiedades compartidas. En febrero de 1869 ya había escrito dos capítulos del segundo volumen y estaba ponderando el siguiente grupo de elementos sobre el que debía escribir. Se encontraba bajo una gran presión. Sus reflexiones sobre la clasificación de los elementos le daban la sensación de que el principio que buscaba estaba casi a su alcance. Había escrito los nombres y los pesos de los elementos conocidos en una serie de tarjetas que reestructuraba una y otra vez, poniendo a prueba su paciencia. Las circunstancias le obligaban a realizar un viaje y temió que si no encontraba la solución antes de partir, perdería la concentración y

perdería su oportunidad. Durante tres días y gran parte de sus respectivas noches luchó con el problema, hasta quedar atontado por la falta de sueño. El día en que se suponía que debía partir, se durmió sobre su escritorio. Mientras dormía, su cerebro continuó barajando las tarjetas y, cuando despertó, comprendió que tenía lasolución.

La tabla periódica

El secreto que el inconsciente de Mendeleyev había vislumbrado mientras dormía, era que los elementos podían colocarse en filas horizontales en orden ascendente según su peso atómico, y en columnas verticales según sus características químicas… dejando huecos allí donde las pautas parecían requerirlos.

Publicó estas ideas en un escrito titulado Relación entre las propiedades de los elementos y su peso atómico.Este contenía su ley periódica, que señalaba que si los elementos conocidos se listaran según un orden de peso atómico ascendente:

1. Mostrarían una pauta repetitiva de valencias ascendentes y descendentes (la proporción en que se combinan con otros elementos).

2. Formarían grupos que muestran una pauta recurrente de otras características.

Una consecuencia del descubrimiento de Mendeleyev fue que pudo recolocar 17 elementos en la tabla basándose en sus propiedades químicas, implicando que sus pesos atómicos aceptados eran incorrectos. También fue capaz, gracias a los huecos de su tabla, de postular la existencia de tres elementos hasta entonces desconocidos e incluso prever sus propiedades.

La reacción inicial al escrito de Mendeleyev fue tan precavida como la que habían recibido los anteriores intentos de ordenar los elementos, pero cuando se descubrió que los pesos atómico s aceptados de algunos elementos eran realmente incorrectos, sus ideas comenzaron a ser tomadas en serio. Y quince años después, los tres huecos de su tabla se rellenaron gracias al descubrimiento del galio (1875), el escandio (1879) y el germanio (1886), y todos ellos poseían las características que había predicho. Aunque no fue el primero en sugerir que era posible colocar los elementos en un orden que mostrara su periodicidad, Mendeleyev, a diferencia de sus predecesores, demostró que había una lógica subyacente que dictaba su tabla.

En 1876, tras muchos años de matrimonio infeliz, se divorció de su primera esposa. Según la ley rusa no podía volver a casarse durante siete años, pero se había enamorado de una preciosa estudiante de arte de origen cosaco. Incapaz de esperar, se casó con ella y fue acusado de bigamia, pero el zar se negó a castigarlo, diciendo: «Mendeleyev tiene dos esposas, pero Rusia sólo tiene un Mendeleyev». Este segundo matrimonio fue feliz. Tuvieron dos hijas y dos hijos a los que amó, y años de trabajo productivo en un estudio amueblado con los dibujos de sus héroes hechos por su esposa: Newton, Faraday y Lavoisier.

La física tras la química:

Desde que fue creada, la tabla de Mendeleyev se ha visto modificada. La versión moderna (véase la página 146) refleja el conocimiento adquirido desde su época. También contiene 109 elementos, comparados con los 63 que él conocía. Pero su tabla sigue siendo reconocible porque descubrió la relación fundamental entre los elementos, aunque no tenía la más mínima idea de cómo se unían sus átomos.

Los elementos del 1 (hidrógeno) al 92 (uranio) son naturales, ingredientes básicos de los que está hecho el mundo, el resto es creación del hombre. Todos los elementos están formados por unas partículas elementales sumamente pequeñas llamadas protones, neutrones y electrones. Todos los átomos de todos los elementos tienen un núcleo compuesto de protones y neutrones, y alrededor de éste giran los electrones como los planetas giran alrededor del Sol. Así como el Sol contiene la mayoría de la masa del sistema solar, el núcleo contiene la mayoría de la masa del átomo. Y así como los planetas están separados del Sol por inmensos espacios vacíos, las órbitas de los electrones están separadas del núcleo central por inmensos espacios vacíos. Lo que determina el peso atómico de un elemento es el número de neutrones y protones que contiene el núcleo (un protón pesa 1,836 veces más que un electrón), pero son el número y la disposición de los electrones los que determinan las propiedades químicas de un elemento, porque cuando los átomos se combinan, los que se unen son sus electrones.

Los números de la tabla periódica son números atómicos y representan el número de protones del núcleo. También corresponden al número de electrones que giran en torno al núcleo, porque cada átomo contiene el mismo número de protones que de electrones. Los electrones tienen una carga negativa, que es equilibrada por la carga positiva de los protones. El peso atómico de un elemento depende del número total de protones y neutrones en el núcleo, y tiende a aumentar a medida que crece el número atómico, pero algunos elementos tienen versiones múltiples, los llamados isótopos. Por ejemplo, el uranio natural (de número atómico 92) tiene dos versiones: el uranio 235, con 92 protones y 143 neutrones, por tanto con un peso atómico de 235; y el uranio 238, con 92 protones y 146 neutrones, y un peso atómico de 238 (igual a 238 átomos de hidrógeno).

Las columnas verticales son llamadas «grupos»: son familias de elementos con propiedades similares. Así, la columna de la derecha contiene los gases «nobles» o «inertes»: el helio, el neón, etc. También suelen ser llamados gases «perezosos» (argos es «perezoso» en griego), porque son lentos para combinarse con otros elementos. Esto los hace útiles para llenar globos aerostáticos (el helio es más seguro que el hidrógeno) y lámparas fluorescentes (el argón).

LOS ÁTOMOS Y LA ORDENACIÓN PERIÓDICA DE LOS ELEMENTOS
La idea de que la materia estaba constituida por unos noventa tipos de unidades fundamentales no acababa de convencer a los científicos.. Hemos visto cómo durante el siglo XIX se iban acumulando pruebas, procedentes de varias fuentes, de que el átomo no era tan simple como una minúscula bola de billar, y que para explicar las interacciones entre los átomos, era necesario que éstos tuvieran una estructura más complicada.

En 1815, William Prout sugirió que todos los átomos estaban formados por átomos de hidrógeno, y como prueba
de su hipótesis adujo el hecho de que todos los pesos atómicos conocidos hasta entonces eran, aproximadamente, números enteros. La hipótesis de Prout ganó inmediatamente muchos adeptos, cuyo entusiasmo disminuyó cuando Jean Seats demostró, con exactas medidas, que el cloro tenia un peso atómico de 35,46.

Los intentos de relacionar las propiedades químicas de los elementos con sus. pesos atómicos prosiguieron entonces con renovado ardor, pero no tuvieron éxito hasta después de 1860, cuando John Newlands tabuló los elementos, ordenándolos según sus pesos atómicos, y observó que existía cierta regularidad en las propiedades químicas de los elementos, que se repetían por octavas. De este modo, enunció su ley, denominada Ley de las octavas y la relacionó con la escala musical, proporción que los científicos de su época acogieron con ironía.

Entre 1868 y 1870, una serie de trabajos de J. L. Meyer y D. Mendeleiev establecieron claramente los principios del “sistema periódico de los elementos”. La Tabla Periódica sistematizó inmediatamente la química inorgánica, hizo posible la predicción de las propiedades de elementos aún desconocidos, y puso de manifiesto la existencia de una regularidad estructural de la constitución atómica.

Estudios más finos revelaron ciertas anomalías en la disposición de los elementos, según sus pesos atómicos. Por ejemplo, cuando William Ramsay descubrió los gases nobles (1894-1897), encontró que el argón tenía un peso atómico de 39,88, que era evidentemente mayor que el del potasio (39,10), mientras éste ocupaba un lugar posterior al argón en la Tabla Periódica.

Tales excepciones indicaban que se desconocían ciertos hechos fundamentales, relativos a la estructura atómica. La respuesta iba a ser encontrada como resultado de experimentos realizados en un campo ajeno a la química: las descargas eléctricas a través de gases.

Ver: Naturaleza de la Materia