Terapia Genética

Francis Galton Teoría de la Eugenesia Historia y Explicacion de su Obra

Francis Galton y Su Teoría de la Eugenesia
Historia y Explicación de su Obra Científica

Los comienzos de una ciencia de las cualidades humanas.

Sir Francis Galton y la eugénesia: Francis Galton (1822-1911), fue un hombre de ciencia británico , dedicado a la antropología, pero tambien se destacó como geógrafo, explorador, inventor, meteorólogo, estadístico, psicólogo y eugenista con un amplio espectro de intereses.​​ Galton produjo más de 3o0 artículos y libros, y por su enorme y prolífico trabajo se le consedió el título de «caballero del reino».

Se considera como el fundador del movimiento moderno para el mejoramiento de la Humanidad, pues fue el precursor en la aplicación de las leyes biológicas de la herencia al perfeccionamiento de la especie humana, que se conoce actualemente como eugenesia.

Era primo de Darwin y como en toda familia de científicos, intento seguir y ampliar sober algunos de los conceptos divulgados por Darwin en su magnánima obra «El Origen de las Especies«. Respecto a su teoría, diremos que le interesaba mucho la inteligencia humana y dedicó su tiempo a aplicar sus conocimientos de psicología y también como novedad la moderna estadística, al estudio de la misma, partiendo que la inteligencia se debía mas a la herencia genética que los factores ambientales. Es decir que las condiciones innatas recibidas de los padres eran un factor fundamental para el éxito en la vida.

Obviamente que debió demostrar su teoría, y para ello comenzó estudiando a gente de su entorno, caracterizados por poseer una formación e inteligencia bastante sobresaliente, y consigue un avance, descubriendo que los hijos de estas eminencias también gozaban de rasgos intelectuales parecidos.

Es evidente, sobretodo para el hombre reflexivo, que todo este avance inicial era muy primitivo y las nuevas conclusiones deben basarse sobre un mayor y mejor conocimiento que aquél que el sentido común sin tutela, y la observación y la especulación sin comprobación puedan proporcionar. Como en tantos otros campos, los avances prácticos se anticipan al progreso científico.

francis galton cientifico

Francis Galton (1822-1911), científico británico famoso por su trabajo en los campos de la antropología y la herencia, considerado el fundador de la ciencia de la eugenesia. Nacido cerca de Birmingham, estudió en el King’s College de la Universidad de Londres y en el Trinity College de Cambridge. Tras viajar por África en 1844 y 1850 escribió Narrativa de un explorador en el sur de África tropical, (1853) y El arte de viajar, (1855). Sus estudios sobre la meteorología le llevaron a escribir Meteorographica (1863), el primer libro sobre los modernos métodos de cartografía meteorológica.

HISTORIA DE SU OBRA: El interés serio del tema, por consiguiente, está y estará, por mucho tiempo, limitado a la acumulación de datos sobre los cuales puede basarse la acción inteligente, y nuestra disertación debe referirse principalmente al aspecto científico del movimiento.

Resumiremos, pues, brevemente, las medidas científicas que han sido adoptadas o que son razonablemente defendidas:

El fundador del movimiento moderno para el mejoramiento de la Humanidad estimulando sus dotes naturales, fue Francisco Galton, quien también le dió el nombre de eugenesia o eugénica. Galton, que fue un hábil biólogo, primo de Darwin, se interesó seriamente en este campo mediante el estudio de la teoría reciente de la selección natural.

Justamente diez años después de la publicación del Origen de las especies publicó Galton su gran obra sobre el Genio Hereditario, que es, esencialmente, un estudio de los grupos familiares de los hombres que han atraído suficientemente la atención para que sus nombres aparezcan en las obras de referencias biográficas.

El gran número de casos de relaciones de sangre entre hombres «notados» y, particularmente, la aparición de tales hombres en generaciones sucesivas de la misma familia, constituyó en su espíritu un fuerte argumento a favor de que la «habilidad es heredada». Galton modificó luego algo su punto de vista y reconoció que la «eminencia» es una prueba demasiado tosca de habilidad.

También substituyó la palabra «valer cívico» por la de «habilidad» para designar la cualidad general que la sociedad procuraría estimular, pero es difícil que esto constituyese una mejora. Si esto está más cerca del «hecho», también es mucho más vago, y todavía poco susceptible de identificación científica y de medida.

Al principio, no tenía sir Francisco Galton un nombre especial para su ciencia; después, la llamó «viricultura», o cultivo del hombre; más tarde, lo substituyó por el de «estirpicultura», o cultivo de los troncos y grupos. En 1883, le dio el nombre de eugénica, que significaba «buen nacimiento». Las investigaciones de Galton sobre las leyes de la herencia.

De la demostración de que las cualidades humanas son hereditarias, partió Galton para inquirir la manera o ley de su transmisión. Para obtener algún resultado en este campo, fue necesario imaginar modos de medir los fenómenos y describir exactamente la distribución de los casos en grupos, y el trabajo estadístico o metodológico de Galton en esta conexión es, probablemente, de más valor científico que sus conclusiones primarias, has medidas de cualidades simples, como la estatura, mostraron que las variaciones son distribuidas aproximadamente a lo largo de una «curva de errores», o según la ley del puro azar.

Esto es, las varias estaturas se centraron alrededor de un «modo», el cual es la estatura más frecuente, y los números mayores y menores que éste, en una cantidad dada, caen uniformemente a ambos lados. Así, en la medida de la altura de 8.586 hombres, ha encontrado que unos 1.300 se hallan entre 1,50 y 1,60 metros, y de un centímetro más y menos de esta medida hay un número pequeño de hombres, aproximadamente igual en ambos casos, y así sucesivamente.

El número de hombres más altos que el «modo» por un cierto número de pulgadas tiene aproximadamente la misma regla que el número de los más bajos por la misma cantidad. Galton ha ideado maneras sencillas de describir la distribución de los casos alrededor del valor típico.

Estudió después la cuestión de la herencia de las cualidades, y formuló la «ley de la regresión filial», es decir, que si los padres divergen por una cantidad dada del grado más frecuente de cualidad, sus hijos divergirán también, pero por una cantidad menor (en el caso de la estatura, dos tercios, próximamente, que los padres, en el promedio de un grupo numeroso). También estudió la herencia en las generaciones sucesivas y alcanzó la conclusión de que el individuo obtiene la mitad de sus rasgos, próximamente, de sus padres; una cuarta parte, de sus abuelos, y así sucesivamente.

La teoría de Galton del mejoramiento de la raza y su programa práctico: La teoría de Galton sobre la variación y la herencia fué, exclusivamente, una ley estadística de promedios. Creyó que refiriéndose a un gran número de generaciones sucesivas de familias, necesariamente mostrarían la misma especie de distribución entre los varios grados de una cualidad.

¿Cómo podría, entonces, asegurarse el mejoramiento progresivo? El argumento fue que si las generaciones sucesivas venían predominantemente de padres que poseían la cualidad en un alto grado, el centro de la distribución o valor típico (lo que nosotros llamamos el «modo» porque es el término que se usa hoy, pero que él llamó el mid-parent—el medio-paternal—se movería elevándose, y con él la línea entera de la variación.

Sus ideas sufrieron algún cambio, pero lo esencial en su espíritu fue siempre promover el número de gentes de habilidades superiores o de «valor», para multiplicarlas más rápidamente que aquellas de habilidad o valor más bajo.

Para asegurar este resultado, Galton proclamó las ventajas del matrimonio temprano. Comparando el promedio del aumento en una estirpe casada de generación en generación a los veintidós años, con otra estirpe casada a los treinta y tres años, se encuentra que, al fin del siglo, si se comenzó con el mismo número de individuos, la primera tendría, respecto de la segunda, una proporción de 10 a 7, y, al final de dos siglos, de 6 a 1.

Para estimular los matrimonios tempranos de los «aptos», Galton ofreció un número de sugestiones concretas. Pensó que las gentes podrían graduarse en una especie de sistema de «puntos», respecto de toda clase de cualidades deseables, y conceder a aquéllas que estuviesen por encima de un cierto nivel de «aptitud» un certificado o diploma eu-génico.

Este les haría ser consortes más deseables, y serían más pronto solicitados, y se casarían más tempranamente. También pidió que se dotase a las gentes de elevadas cualidades para que pudieran casarse más pronto y, una vez casados, ayudarles a criar sus hijos. Una forma de auxilio sugirió que podía ser el de la casa barata. Todo esto suena más bien a medida política artificiosa, y debería agregarse que los recientes estudios sobre la herencia han suscitado graves dudas acerca de la validez teórica de elevar el nivel o la norma de la variación continuamente por selección.

Parece que todo lo cjue puede hacerse es separar las «líneas puras» que tienen la cualidad en cuestión en alto grado y sostener entonces la mejora, a menos de que ocurra una «mutación», o como hoy se diría, una «diversión». Entre tanto, no tenemos conocimiento de los medios de controlar o predecir las mutaciones; parece que son muy libres en su carácter y manera de ocir-rrencia, relativamente raras y, desde luego, mucho más inclinadas a ser indeseables que deseables.

Los sucesores de Galton. Carlos Pearson y la escuela biométrica
Durante muchos años, la propaganda de Galton fue poco más que una voz gritando en el desierto. Se le prestó muy poca atención, salvo unos cuantos vacíos comentarios en pro o en contra, por unos cuantos hombres de ciencia y por simples curiosos. La única notable excepción es la de Carlos Pearson, el reputado estadístico, a quien inspiró un interés activo la cuestión, lo mismo como problema científico que como una proposición práctica. En 1904, sin embargo, sobrevino un cambio.

En aquel año, Galton, en un discurso pronunciado ante la Sociedad Inglesa de Sociología, suscitó un profundo interés por el tema de la eugénica, y hacia el mismo tiempo, fundó el laboratorio eugénico en la Universidad de Londres, con Pearson al frente.

El periódico «Biométrica» se había ya iniciado en 1901. Pearson y sus asociados lograron continuar y desenvolver la obra de Galton, lo mismo mejorando la técnica estadística que intentando alcanzar resultados de valor práctico. Su obra se ha continuado en el sentido de un estudio matemático de promedios y distribución en grandes grupos, ya que la idea era llegar a establecer leyes estadísticas de la herencia.

Los rasgos físicos han sido estudiados por la medida directa, y los mentales mediante cuestionarios que han llenado los maestros, respecto de los niños de la escuela, y también mediante historias de familias. Las publicaciones del laboratorio constituyen los estudios más comprensivos y las más amplias colecciones de datos que tenemos sobre el tema de la eugénica y los problemas de la herencia que le competen.

Hasta ahora, después de todo, lo que se ha hecho realmente es acumular las pruebas de que los rasgos humanos se transmiten en las familias, de lo cual podemos decir que «todo el mundo lo sabía». No puede decirse que esto constituya aquella base científica para la formación positiva de la habilidad y el carácter humanos por métodos biológicos,que todo el mundo aguarda.

Algunas aproximaciones se han logrado para establecer «leyes» de la herencia en términos medios o probabilidades—lo más que el método puede por su naturaleza hacer—, pero no son de un carácter adecuado para pr porcionar una base para la acción, aun cuando se eliminaran otras dificultades.

Una crítica más definida de los trabajos de la escuela consiste en que los escritores se han esforzado poco por separar los efectos de la herencia de aquéllos del medio, y con frecuencia han tratado los datos estadísticos con muy poca crítica.

Claro está que no hemos de presumir que todos los rasgos manifestados por los hijos en común con sus padres, sean heredados. En otro caso, tendríamos que tratar como hereditarias ciertas cosas, como el tener buena ortografía. De hecho, es muy difícil distinguir la habilidad innata de la información y destreza adquiridas, aun bajo condiciones experimentales, en un laboratorio, por investigadores capaces y adiestrados. Bajo el segundo punto, sólo nos referiremos aquí a la incierta confianza que se concede a los datos de los cuestionarios sobre la habilidad y los rasgos mentales proporcionados por los maestros.

Tales datos pueden tener algún valor, pero someterlos a refinadas matemáticas y deducir resultados cuantitativos precisos, no puede permitirse. En una palabra, aun cuando se ha realizado mucho trabajo científico, todavía estamos lejos del conocimiento que forme una conexión digna de confianza entre un programa de acción y resultados deseables.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – Editores W.M Jackson , Inc. – Tomo III  – La Sociedad Humana – La Obra de Galton Francisco –

Etapas en la Digestión de los Alimentos Cuerpo Humano

Etapas en la Digestión de los Alimentos

En 1825, el médico estadounidense William Beaumont (1785-1853), que prestaba servicio en el ejército, tuvo que curar una herida de arma de friego de aproximadamente 2,5 cm de ancho que se encontraba en un costado y dejaba ver el interior del estómago del paciente. Esto permitió a Beaumonr observar las transformaciones que se producían en el interior del estómago y tomat unas muestras de jugo gástrico.

El jugo gástrico es un líquido producido por las glándulas que se encuentran en la mucosa gástrica y elaboran sus secreciones de forma continua en cantidad variable, unos 1500-2500 ml. al día. Se presenta como un líquido límpido, fluido e incoloro, y su importancia reside en su función de descomposición de las proteínas en grupos de aminoácidos más pequeños.

Gracias a esras observaciones Beaumont pudo obtener preciosas informaciones acerca del proceso digestivo, y sus descubri-mienros renovaron el interés hacia los estudios científicos en este ámbito.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Sabemos que los alimentos realizan en nuestro organismo importantísimas funciones: aportan los elementos necesarios para la formación y desarrollo de los innumerables compuestos orgánicos que lo integran y suministran las calorías necesarias para la vida, en una serie de procesos químicos que se efectúan, muchos de ellos, en la intimidad de las células.

Pero nosotros no ingerimos sustancias simples, capaces de ser asimiladas inmediatamente a nuestros tejidos, sino que, por el contrario, nuestros alimentos son cuerpos compuestos, formados por una serie de elementos agrupados de distinta manera, como sucede con el pan, la carne, etc.

Ahora bien, este pan, esta carne, no se incorporan a nuestro cuerpo según se ven, sino que son desmenuzados, desintegrados paulatinamente hasta sus componentes más simples, que, entonces sí, son absorbidos e incorporados a nuestros propios tejidos, adonde son llevados por la corriente sanguínea.

Todos estos procesos de orden físico-químico, que llevan a la destrucción de la materia constitutiva de los alimentos hasta sus componentes básicos asimilables y su ulterior absorción, constituyen, en resumen, la digestión.

Ésta se lleva a cabo en el aparato digestivo, por medio de un conjunto de compuestos, casi todos ellos fermentos, que forman parte de los jugos digestivos elaborados por una serie de glándulas, que los vuelcan con sus secreciones, a lo largo del citado aparato, desde la boca hasta el intestino. Este proceso es común a los tres principales componentes de los alimentos: grasas, hidratos de carbono y las denominadas proteínas.

¿QUÉ ES  EL ALIMENTO?
Es necesario recordar que los alimentos se componen de tres clases de sustancias fundamentales:
1) hidratos de carbono o glúcidos: azúcares, almidón, celulosa, etc., contenidos sobre todo en los vegetales, en el pan y en las pastas;
2)
grasas o lípidos: contenidos en la manteca, aceites, etc.;
3) proteínas o prótidos: se encuentran en la carne, huevos, quesos, etc. Se hallan, además, sustancias inorgánicas, agua y sales minerales, necesarias a nuestro organismo.

ESQUEMA DEL APARATO DIGESTIVO

Etapas en la Digestión de los Alimentos

ETAPAS DE LA DIGESTIÓN

1) DIGESTIÓN BUCAL. Los dientes trituran los alimentos, mientras las glándulas salivales vuelcan su secreción, la saliva, en la boca. Esta saliva, por medio de un fermento, la tialina, transforma el almidón en un azúcar simple, la maltosa. Además embebe los alimentos y lubrica la mucosa bucal.

2) DE LA BOCA AL ESTÓMAGO. El alimento masticado, que origina la formación del bolo alimenticio, es deglutido y, por medio del esófago, llega hasta el estómago.

3) LA DIGESTIÓN GÁSTRICA. El jugo gástrico segregado por las glándulas de la mucosa del estómago posee dos integrantes fundamentales en la digestión: el ácido clorhídrico y la pepsina.

corte esquematico del estómago

El primero disuelve ciertos elementos (fibras conjuntivas, nucleoproteínas, etc.) y crea un medio cuya acidez favorece la acción de la segunda, que es un poderoso fermento   actuante   sobre   las   proteínas,   desdoblándolas en cuerpos más simples: peptonas y albumosas. La acción de aquéllos resulta favorecida por los movimientos que el estómago imprime a la masa alimenticia permitiendo primero su mezcla y, luego, su progresión hacia el intestino.

 4) DEL ESTÓMAGO AL INTESTINO. Después de un tiempo, que varía entre 1 y 6 horas, según los alimentos, se ha completado la digestión gástrica y el bolo alimenticio ha sido transformado en una papilla blanquecina llamada quimo. El estómago, entonces, contrayéndose, lo envía hacia el intestino, pasando a través de un anillo muscular a modo  de válvula,   llamado píloro   (válvula gastrointestinal).
 5) LA DIGESTIÓN INTESTINAL. Cuando el quimo llega a la primera porción del intestino, el duodeno, se inicia la digestión intestinal, mediante la acción de tres jugos, que son los siguientes:

1) Jugo duodenal o intestinal: es producido por las células de la pared del duodeno y posee varios fermentos: erepsi-na, que actúa sobre las peptonas desdoblándolas en aminoácidos; lipasa, que desdobla las grasas; maltasa, que tranforma la maltosa en glucosa; invertasa, que desdobla la sacarosa en fructosa y glucosa.

2) Jugo pancreático: segregado por el páncreas y llevado al duodeno por los conductos pancreáticos (de Wirsung y de Santorini), este importantísimo jugo digestivo actúa sobre los tres tipos de sustancias que componen los alimentos, por medio de cuatro fermentos que son:
a) tripsina: actúa sobre las peptonas y albumosas, transformándolas en aminoácidos asimilables;
b) lipasa, desdobla las grasas, ayudada por la bilis y las transforma en ácidos grasos y glicerina, fácilmente absorbibles por el intestino;
c) amilasa, completa la acción de la saliva y jugo intestinal, desdoblando el almidón en glucosa;
d) maltasa: desdobla la maltosa en glucosa.

3) Bilis: segregada por el hígado y almacenada en la vesícula biliar, cuando llega al intestino cumple importantes funciones: emulsiona las grasas, favorece la absorción de ciertos ácidos, excita los movimientos del intestino, etcétera.

 6) LA ABSORCIÓN INTESTINAL. Después de ser, como hemos visto, profundamente transformada, el quimo se convierte en una masa muy fluida, a la cual se le da el nombre de quilo. A medida que la digestión se va completando, las sustancias alimenticias, transformadas en otras capaces de ser utilizadas por el organismo, van siendo absorbidas por conducto de las vellosidades intestinales.

En toda la mucosa del intestino delgado, las vellosidades van absorbiendo el quilo, por medio de las células absorbentes que las recubren.

Las grasas pasan en parte a los vasos linfáticos y de éstos al conducto torácico que las conduce al sistema sanguíneo. En cambio, las proteínas, los azúcares y las sales penetran en los capilares; de allí pasan a la vena porta, que los conduce directamente hasta el hígado.

7) LA LABOR DE LAS BACTERIAS. En el intestino grueso es absorbida el agua; por otro lado, millones de bacterias atacan la celulosa de los alimentos vegetales, que no es alterada por los jugos digestivos, y la transforman, aunque en pequeña parte, en glucosa asimilable.
8) LA EXPULSIÓN. Finalmente la masa de sustancia, privada de todos los materiales alimenticios y de buena parte del agua, queda reducida a una pasta formada por desechos no digeribles, moco, sales y productos intestinales no asimilables, que es expulsada formando las materias fecales.

Fuente Consultada:
Enciclopedia Estudiantil Ilustrada de Lujo Tomo VII – La Digestión-

 

 

Aplicaciones de Biotecnología Moderna en la Salud Historia y Evolución

Aplicaciones de la Biotecnología Moderna: Historia y Evolución

La Biotecnología tiene aplicación en muchas áreas: en la elaboración de alimentos y bebidas, en la fabricación de fármacos y sustancias de acción terapéutica, en la mejora de animales domésticos y de plantas cultivadas, en la prevención y curación de enfermedades por vía genética, en el control de la contaminación ambiental e, incluso, en la producción de formas de energía no contaminantes.

Actualmente, se lograron avances importantes en todas estas áreas, en especial en el diagnóstico y el tratamiento de las enfermedades.

Pero, ¿qué es la Biotecnología? Para entender su campo de estudio y aplicación, piensen en la frase siguiente: «¿Quién se molestará en fabricar un compuesto químico cuando puede hacerlo un microbio?»

En 1929, el genetista inglés John Burdon Haldane (1892-1964), quien había desarrollado las primeras técnicas para medir el encadenamiento de los genes, sintetizó con esa frase el concepto de lo que hoy se denomina Biotecnología.

La Biotecnología puede definirse como la disciplina que trata de la utilización de organismos vivos -y de las sustancias que estos organismos producen- en los procesos industriales.

Se pueden distinguir dos modos de aplicación de las técnicas biotecnológicas, las cuales se relacionan con dos etapas históricas de su desarrollo:

a) la Biotecnología tradicional o clásica, que busca la manera de mejorar el rendimiento a partir de la selección de organismos y de los medios de producción; por ejemplo, en el cultivo de champiñones, en la producción de cerveza, de vino y de alimentos lácteos, etcétera;

b) la Biotecnología moderna, que trabaja en estrecha relación con las técnicas de la Ingeniería genética (disciplina que se basa en la manipulación del maternal genético), que permite la transferencia de genes de un organismo a otro, con el fin de obtener productos o de mejorar su rendimiento, y que se aplica especialmente en la fabricación de fármacos y en las terapias génicas.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

BIOTECNOLOGIA MODERNA
PRINCIPALES BIOFÁRMACOS EN EL MERCADO ACTUAL

Producto Empresa (Laboratorio) Indicación Año Salida a Venta

HEMODERIVADOS Kogenate (rFactorVIII) Genentech-Miles Hemofilia A 1992


TROMBOLÍTICOS Activase (rTPA) Genentech Infarto agudo 1987


HORMONAS EH Lilly Diabetes mellitus 1982
Humulin (rh Insulina)


ERITROPOYETINA (EPO)
Epogen (rh EPO) Amgen-J&J Anemia 1989


INTERFERONES
Roferón A (rh IFN alfa2a) Roche Oncología 1986
(tricoleucemla)
Intrón A (rh IFN alfa2b) Schering Plough Oncología 1986
(tricoleucemia)


VACUNAS
Recombivax HB Merck &Co. Hepatitis B 1986
Gardasil y Cervarix Glaxo SK y Merck Cáncer cervical 2007
por Papilloma virus


FACTORES
Neupogén (rh G-CSF) Amgen Inmunodeficiencia 1991


AcMc OKT3 Ortho Biotech Trasplantes (evita rechazo) 1986
Herceptín Genentech Cáncer de mama 1999
metastásico

CD30 Seattle Genetics inc. Linfoma de Hodgkin 2011


Inmunoglobulina Rare Disease Therap. Picadura de escorpión 2011
Antiveneno


HISTORIA BIOTECNOLOGIA: La técnica de la fermentación, en la cual microorganismos, como por ejemplo la levadura, convierten materias primas en productos útiles, se conoce desde los tiempos más remotos. A mediados del siglo XIX ya se producía alcohol industrial por fermentación, casi de la misma forma que la cerveza o el vino.

Y en la década de los 70, cuando el precio del petróleo crudo subió, el alcohol producido de esta forma pudo competir en algunas circunstancias con el «oro negro». En Estados Unidos y Brasil se han construido grandes fábricas de fermentación para convertir en combustible materias vegetales, como el maíz.

La biotecnología moderna tiene sus orígenes desde hace al menos de cuarenta años, aunque tal vez haya comenzado a gestarse en el momento en que Watson y Crick describieron la estructura del ADN y, más audaces aún, arriesgaron hipótesis sobre cómo se duplicarían nuestras células o las de todo organismo vivo. Muchos años después, en 2005, Watson declaró: «En 1953, con F. Crick, creíamos que estábamos contribuyendo a una mejor comprensión de la realidad. No sabíamos que estábamos contribuyendo a su transformación».

cadena de adn biotecnologia

Esta joven tecnología se basa en «manejar» la información genética (IG), es decir, se puede tomar un fragmento de ADN (gen) de los cromosomas de un organismo, eligiendo el que tiene los datos para fabricar una determinada proteína (por ejemplo, insulina humana), y colocarlo en otra especie (bacterias, levaduras, células vegetales, etc.) para reproducirlo y obtener dicha proteína y, fundamentalmente, producirla de manera industrial. «Manejar» la IG, además, significa controlar que un gen no funcione o que funcione, se «exprese» o no se «exprese».

Explicación breve: La información genética que poseen los seres vivos está contenida en las moléculas del ácido desoxirribonucleico (ADN) (material de los cromosomas que están en el núcleo de cada célula).

Las moléculas de ADN están formadas por una doble cadena de subunidades llamadas nucleótidos. Cada nucleótido consta de un grupo fosfato, un azúcar (deso-xirribosa) y ademas uno de los cuatro grupos químicos denominados bases nitrogenadas: Adenina (A), Guanina (G), Timina (T) y Citosina (C), la secuencia de los cuales siendo la que determina la información.

Esta información está organizada en unidades discretas denominadas genes, consistentes en un segmento de ADN que contiene una información concreta, transcrita en una molécula de ácido ribonucleico (ARN) -en la mayoría de los casos de ARN mensajero-, que, posteriormente, se traducirá en una proteína. Cada especie contiene en todas sus células un conjunto de genes, característicos de especie, que se encuentran distribuidos en una, pocas o en algunos casos muchas moléculas de ADN denominadas cromosomas. Desde el año 1953 en que J. Watson y F. Crick describieron la estructura molecular del ADN, los biólogos moleculares han ido, paulatinamente, poniendo a punto técnicas que posibilitan la manipulación de los genes.

El objeto de estas manipulaciones era, por un lado, obtener genes purificados por aislamiento bien a partir de los cromosomas, bien por síntesis «in vitro», y, por otro, introducir estos genes en células receptoras, con lo que se consigue que se expresen, o sea, que funcionen de modo que se transcriban dando lugar al ARN correspondiente, y se sintetice así la proteína codificada por el gen introducido.

En definitiva, lo que se pretende es que las células receptoras adquieran propiedades genéticas que antes no poseían.

El conjunto de los trabajos destinados a lograr dichos objetivos constituye el campo de la ingeniería genética.

PRIMERAS APLICACIONES: Desde la época de Pasteur y, más cercanamente, a partir de la producción industrial de antibióticos y vacunas, se habla de «producciones biológicas» o «microbiología industrial» (fermentaciones para producir alimentos y bebidas, por ejemplo).

Sus productos y sus tecnologías no son para nada despreciables: pensemos en las vacunas contra el sarampión, la poliomielitis o la meningitis; en todos los antibióticos que usamos; las gamma globulinas en general y las específicas (antiRh, antihepatitis, etc.); los diagnósticos para detectar portadores del virus del sida o de la enfermedad de Chagas u otras enfermedades infecciosas, o los test de embarazo.

No sólo son de gran utilidad médica, sino que permitieron crear una muy fuerte industria biológico-farmacéutica.

Mediante la fermentación se puede producir también cierto número de ácidos. El vinagre (ácido acético diluido) es uno de los ejemplos más importantes.

El ácido cítrico, muy usado en comidas y bebidas, se producía originariamente a partir de frutas cítricas, hasta que dominó el mercado un proceso de fermentación desarrollado por la compañía estadounidense Pfizer en la década de los 20. Pfizer todavía produce la mitad de las 250.000 toneladas de ácido cítrico que se utilizan anualmente.

Otros productos químicos que se pueden fabricar mediante la fermentación son la glicerina, la acetona y el glicol de propileno.

La fermentación ha demostrado también su utilidad en la industria farmacológica. Tras el descubrimiento del antibiótico de la penicilina en 1928 ), durante la década de los 40 se desarrollaron métodos de fermentación a gran escala para producir el fármaco comercialmente.

En la actualidad, se fabrica de esta forma un gran número de medicamentos, así como otros productos bioquímicos; por ejemplo, enzimas (catalizadores bioquímicos), alcaloides, péptidos y proteínas.

La técnica de la ingeniería genética ha aumentado de forma considerable la gama de productos posibles.

Alterando la estructura genética de un microorganismo se le puede obligar a producir una proteína muy distinta de la que produciría naturalmente.

Por ejemplo, si la parte corta del ADN responsable de la producción de la hormona del crecimiento en los humanos, se inserta en células de cierta bacteria, la bacteria producirá la hormona humana mientras crece.

Y entonces estará en condiciones de ser extraída y utilizada para tratar a niños que de otro modo no crecerían correctamente. Los mismos métodos se pueden emplear con objeto de producir insulina para diabéticos. También las ovejas han sido tratadas genéticamente para que produzcan en su leche un agente coagulante para la sangre humana.

El Lic. Alberto Diaz dice en su libro «Biotecnología por todos lados»

«La genética es el estudio de la herencia y sus mecanismos; fue utilizada de manera empírica a lo largo de la historia para obtener mejores «razas» de animales y variedades vegetales para la alimentación humana. Pero desde la década de 1950 las investigaciones en ciencias de la vida fueron muy intensas y llegaron a desentrañar los mecanismos moleculares de replicación o duplicación de macromoléculas, y a determinar estructuras de proteíñas, sus biosíntesis y el código genético, lo que llevó a entender y poder dominar la información genética.

Con estos antecedentes, el nacimiento de la ingeniería genética, a principios de la década de 1970, permitió transferir «genes» (información genética contenida en una secuencia de moléculas químicas perfectamente conocidas) de una especie a otra, sobre lodo a bacterias, pero también a células animales y plantas, para ser usados en la fabricación de nuevos productos para la salud 0 la alimentación, o en nuevos materiales, lo que sentó las bases de una nueva industria.»

La importancia de esta tecnología es que permite modificar : nanismos, células o tejidos insertando o sacando los genes que se desea usar. Como los genes tienen la información para las diversas proteínas que se encuentran en las células, es posible hacer que un organismo seleccionado produzca una determinaba proteína o metabolito (molécula) y que adquiera una característica deseada.

Si se compara la manipulación genética que los criadores de animales y de plantas vienen realizando desde hace miles de años, la diferencia más importante que esa modificación tiene con la ingeniería genética es que esta última permite el pasaje de genes específicos (los que se han seleccionado) en menor tiempo y, también, posibilita la transmisión de información de una especie a otra (inserción de genes de microorganismos en plantas, de humanos en animales, de humanos en bacterias, etc.). Básicamente, esta última característica es la que hace que sea tan apreciada por algunos y muy rechazada por otros.»

El primer biofármaco (es decir un fármaco biológico fabricado por la biotecnología) que llegó a venderse en los mercados internacionales fue la insulina humana.. Las novedades que trajo la tecnología del ADNr para su uso en la industria farmacéutica se pueden ver en el cuadro de abajo que con adaptaciones, se aplica al resto de los sectores productivos.

Logros e importancia industrial y científica de la biotecnología

    • Fabricar proteínas humanas para usar como medicamentos.
    • Fabricar proteínas humanas a escala industrial; para ello, sólo se requiere contar con las estructuras industriales indispensables y con la bacteria (o célula u organismo) que contenga el gen necesario.
    • Fabricar proteínas humanas con medianos o bajos costos de producción.
    • Seguridad y/o bioseguridad en la elaboración, es decir, que esté libre de contaminantes (virus, priones).
    • Recursos humanos: gente educada (no sólo que no Insulte) y formada en estas nuevas tecnología.
  • Facilita la Investigación blomédica con las nuevas moléculas (interleuqulnas, células madre, eritropoyetina, AcMc, receptores celulares, etc.).

«La insulina es utilizada para el tratamiento de la diabetes desde hace unos ochenta años, pero hasta 1982 se la fabricaba a partir del páncreas de los cerdos y de los bovinos (cosa que se sigue haciendo y no está nada mal).

Sería maravilloso poder producir insulina humana en cantidades que no dependieran de la existencia de cabezas de ganado con que cuente un país, con la ventaja de que, al ser humana (la misma especie), la resistencia a los tratamientos será muy baja o inexistente, a lo que se agrega que se trata de un producto más seguro, ya que no se introduce el riesgo de un posible virus o partícula infecciosa animal.

Hoy en día cualquier biólogo puede poner un gen heterólogo (de otra especie) en una bacteria o en células animales o vegetales y fabricar un «transgénico» que podrá producir insulina u otra proteína para tratamientos terapéuticos o para estudios e investigaciones.

También, obtener proteínas que sirvan para vacunar o para generar enzimas destinadas a fabricar mejores jabones para la limpieza de la ropa o de la vajilla. Pero, en verdad, ¿cualquier biólogo puede hacerlo?

Una cosa es hacer un experimento en el laboratorio de enseñanza o de investigación y otra es hacer un medicamento a escala industrial y venderlo en todo el país.

Para que esto fuera exitoso se necesitó una colaboración muy estrecha entre universidades y nuevas empresas de biotecnoloría, las cuales luego tuvieron que negociar con las grandes productoras y comercializadoras de medicamentos, la gran industria irmacéutica internacional. Hoy ese modelo sigue funcionando riendo exitoso también en la Argentina.»

ETICA DE LA MANIPULACIÓN GENÉTICA
Problemas Actuales

En la actualidad, el sector comercial (dedicado a la producciónde aliemntos) se ha convertido en el motor del desarrollo de las ciencias aplicadas. Muchas empresas han aportado grandes sumas de capital para financiar proyectos de investigación cuyos resultados pueden proporcionarles beneficios nada desdeñables.

Nos guste o no, éste es el sistema actual y la agricultura no es ajena a la situación. Algunas compañías especializadas en la comercialización de semillas, abonos y demás productos agrícolas han debido enfrentarse a agresivas campañas contra la introducción de variedades modificadas genéticamente.

Una de las más importantes, Monsanto, ha sufrido los ataques de numerosos grupos de activistas que han llegado a destruir campos de cultivo experimentales.

El problema, pese a lo que pueda parecer a simple vista, no es nuevo: hace casi dos siglos, en 1815, un grupo de trabajadores textiles ingleses, capitaneados por un tal Ned Ludd, entraron por la fuerza en una fábrica para destruir los telares mecánicos que acababan de instalarse.

El triste suceso dio lugar a una corriente de pensamiento contraria al desarrollo tecnológico que, en homenaje a su primer héroe, se llamó ludismo, por lo que aquellos que se oponen a la aplicaión de la biotecnología, le llama: bioludista. Como puede verse, las nuevas tecnologías no siempre son aceptadas de buen grado.

Manipulación genética:

En rigor, ¿qué debe tenerse en cuenta a la hora de hablar de alimentos modificados genéticamente?.

Para empezar, se debe partir del hecho que, desde el origen de la agricultura, el ser humano a intentado obtener mejores variedades mediante procedimientos de selección y cruce que, sin saberlo, entrañaban importantes cambios en la estructura genética de las especies.

En la actualidad, las técnicas empleadas, por muy artificiales que puedan parecer, son tan naturales como las antiguas -aunque un poco más sofisticadas-, si bien permiten obtener resultados con mayor rapidez y seguridad.

Las nuevas técnicas de manipulación genética pueden acelerar el proceso y eliminar en buena parte el azar, lo cual redunda en una selección mucho más cuidadosa de los rasgos que se desean potenciar. Aun así, el producto final –sea fruta, verdura, legumbre o grano– no guardará demasiadas diferencias en comparación con otras variedades obtenidas por procedimientos tradicionales.

A lo largo de varios siglos, granjeros y agricultores han recurrido a la selección y el cruce para mejorar las características de las plan-las. La naturaleza evoluciona con una enorme lentitud: los cambios se desarrollan a lo largo de millones de años y el ser humano no po-día permitirse aguardar tanto tiempo.

La configuración de un fenotipo determinado altera el genoma de una planta, a la que se obliga a evolucionar en una dirección concreta. Una tarea de estas características depende en buena parte de la capacidad del granjero o el agricultor, quien debe escoger los mejores ejemplares y mantenerlos en un entorno favorable para que se reproduzcan de manera satisfactoria.

Por desgracia, no siempre se obtienen li is resultados deseados y a menudo, la introducción de nuevas carac-lerísticas en una variedad se convierte en una tarea casi imposible.

I,a ingeniería genética permite llegar a extremos insospechados. Gracias a las modernas técnicas de manipulación, por ejemplo, es posible insertar genes nuevos en un genoma antiguo o completamente ajeno.

En la actualidad, el método principal para introducir genes nuevos en el genoma de plantas se basa en el empleo de bacterias como transmisores.

El Agrobacterium tumefaciens es una bacteria patógena que causa tumefacciones cancerosas en algunas especies vegetales al transferir parte de su ADN al de su anfitrión. Una vez dentro de la célula huésped, el nuevo segmento de ADN se desplaza al núcleo, donde se integra en el genoma.

La expresión de los genes nuevos (en condiciones naturales, los oncogenes que producen cáncer) da lugar a un crecimiento celular descontrolado y el consiguiente tumor.

La ingeniería genética se ha valido de este mecanismo natural sustituyendo los genes cancerosos por otros que se consideran más interesantes. De ese modo, la bacteria, al transferir parte de su ADN, los inoculará en el núcleo de la célula.

Una vez insertados, los transgenes pueden dotar a las plantas de nuevas características, como la resistencia a herbicidas o patógenos, o bien la capacidad de producir determinadas sustancias que actúen como fármacos o incrementen las características nutritivas de la planta. Hasta hace relativamente poco, se pensaba que sólo los Agrobacterium eran capaces de desarrollar el proceso que se conoce como transferencia horizontal de genes. En la actualidad, se ha descubierto que existen otras bacterias capaces de hacerlo.

Y eso, más o menos, viene a ser todo: una bacteria que causa tumoraciones en las plantas inyecta sus propios oncogenes en el genoma de la planta receptora.

En lugar de ello, los seres humanos hemos encontrado la manera de sustituir esos genes cancerígenos por otros que no sólo mantienen viva a la planta, sino que pueden resultar beneficiosos en un futuro inmediato. ¿Hasta qué punto puede considerarse este método como antinatural? ¿Cabe pues considerar los alimentos modificados genéticamente como un producto artificial?

La ciencia nos ha permitido alejarnos de nuestros antepasados homínidos así como del resto de los primates. Con todo, no cabe duda de que, si alguien quiere comportarse como un mono, nadie se lo prohibe.

Algunos de los sectores más radicales del ecologismo predican precisamente la vuelta a la naturaleza. Sin embargo, no estaría de más explicar a algunos de sus representantes que un déficit grave de betacaroteno puede causar una ceguera irreversible a un niño de diez años pero que, gracias a la biotecnología, se ha desarrollado una variedad de arroz que evita el problema.

Aplicacion de la Biotecnología En El Medio Ambiente:

 La Biotecnología moderna permite resolver de diferentes y novedosas maneras el problema de la contaminación ambiental. Por ejemplo, pueden utilizarse diversos microorganismos para llevar a cabo el tratamiento y el control de la contaminación química de distintos ecosistemas. La Ingeniería genética permite combinar varias características de esos organismos para aumentar su eficacia, o bien generar microbios recombinantes con nuevas características.

La mayoría de las aplicaciones biotecnológicas ambientales se realizan, principalmente, con bacterias y cianobacterias (algas azules).

Analicen la siguiente lista de aplicaciones de la Biotecnología para la mejora global de ambiente y emitan su opinión en cuanto a la importancia que tienen para el ser humano de este siglo:

Elminación de las mareas negras.

Obtención de energía no contaminante.

Eliminación de metales pesados.

Tratamiento de los residuos urbanos e industriales.

Tratamientos de diferentes tipos de contaminación asociados a la industria del petróleo.

Tratamientos de la contaminación producida por herbicidas, pesticidas e insecticidas.

Ensayos sobre la toxicidad de diferentes compuestos.

Detección de metales.

Recuperación de metales preciosos.

Degradación de aceites y grasas.

Separación selectiva de mezclas de hidrocarburos.

En particular, vamos a analizar las dos primeras aplicaciones.

Eliminación de las mareas negras. Las mareas negras se forman por el vertido de petróleo o sus derivados -por ejemplo, los desechos industriales-, o por accidentes durante su transporte en grandes barcos. Actualmente, es posible utilizar bacterias (incluidas las arquibacterias) que digieren los hidrocarburos y los transforman en moléculas de sustancias químicas no contaminantes.

Aunque generalmente cada tipo de bacteria utiliza una clase de hidrocarburo, se intenta mezclar las características de varias de ellas para conseguir una que sea recombinante, capaz de transformar diferentes hidrocarburos.

Obtención de energía no contaminante. Hoy en día, es imperiosa en todo el mundo la necesidad de buscar fuentes energéticas no contaminantes. Una de esas fuentes es el biogás, básicamente el metano. Este gas se puede producir utilizando como materia prima aguas residuales, cianobacterias (algas azules), algas verdes, arquibacterias metanógenas (productoras de metano) y bacterias.

Las aguas residuales se acumulan en charcos profundos, donde suelen crecer las algas ante la amplia disponibilidad de nutrientes. Las algas se cosechan en un contenedor, llamado digestor. Dentro de él, las bacterias se alimentan de las algas y producen metano.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

HITOS DE LA BIOTECNOLOGIA:

6000 a.C. Comenzaron a emplearse las levaduras para la fabricación del vino y la cerveza.

1927. Se creó en los Estados Unidos la Administración de Alimentos y Drogas (FDA, «Food and Drug Administraron«), para regular la pureza y la seguridad de estos productos que se comercializan.

1928. El bacteriólogo escocés Alexander Fleming descubrió la penicilina, un antibiótico que revolucionó el tratamiento médico durante y después de la Segunda Guerra Mundial. Por este hallazgo, el investigador recibió en 1945 el Premio Nobel de Medicina y Fisiología.

1953. El genetista norteamericano James Watson y el científico inglés Francis Crick descubrieron gue la estructura del ADN consiste en una doble hélice. Por este trabajo, se les otorgó en 1962 el Premio Nobel de Medicina y Fisiología.

1960-1965. El médico español Severo Ochoa hizo copias de material genético en laboratorio y descubrió el código genético, es decir, descifró la clave con la que están escritos los mensajes hereditarios. Compartió con A. Kornberg, en 1959, el Premio Nobel de Medicina y Fisiología.

1975. El investigador argentino César Milstein obtuvo los primeros hibridomas fusionando linfocitos con células de melanoma, lo que dio lugar a la producción de los primeros anticuerpos monoclonales. Miistein fue galardonado en 1984 con el Premio Nobel de Medicina y Fisiología.

1978. Se descubrieron las enzimas de restricción.

1982. En los Estados Unidos e Inglaterra se autorizó la utilización de la insulina obtenida por Ingeniería genética para el tratamiento de la diabetes. Se obtuvo también el primer animal transgénico (un ratón).

1983. Se inventó la técnica PCR, que permite amplificar genes específicos con gran rapidez. Se desarrolló también la primera planta transgénica: la planta del tabaco.

1986. En los Estados Unidos, se aprobó para la venta la primera vacuna recombinante que protege contra la hepatitis B.

1987. Se puso en marcha el Proyecto Genoma Humano, que tiene como objetivo secuenciar todos los genes de nuestra especie.

1989. Se hizo el primer tratamiento exitoso de terapia génica en chicos con trastornos inmunológicos (niños de la burbuja).

1996. Se ensayaron los primeros trasplantes de células vegetales en organismos animales para probar su acción terapéutica (con lo que se evitaría el uso de fármacos). Además, ya existían para esta fecha 256 medicamentos elaborados por técnicas de ADN re-combinante.

1997. Un grupo de científicos escoceses anunció que clonó el primer mamífero obtenido a partir de una célula somática de un animal adulto, la Oveja Dolly

2005. Se espera para esta fecha tener lista la secuencia completa del genoma humano (Proyecto Genoma Humano).

Fuente Consultada:
Guinness Publish Limited Fascículo N°21 – La Nación
Biotecnología Por Todos Lados Alberto Díaz – Editorial Siglo XXI
Las Mentiras de la Ciencia Dan Agin
Biologia y Ciencias de la Tierra Editorial Santillana Polimodal Cuniglio, Barderi, Bilenca, Granieri y Otros

Alimentos Transgenicos Manipulacion Genetica de los Alimentos

Alimentos Transgénicos
Manipulacion Genética de los Alimentos

Se denominan alimentos transgénicos a los obtenidos por manipulación genética que contienen un aditivo derivado de un organismo sometido a ingeniería genética; también se llaman así a aquellos que son resultado de la utilización de un producto auxiliar para el procesamiento, creado gracias a las técnicas de la ingeniería genética.

La biotecnología de alimentos aplica los instrumentos de la genética moderna a la mejora de localidad de los productos derivados de las plantas, animales y microorganismos. Desde tiempos remotos, él hombre ha seleccionado, sembrando y cosechado las semillas que permiten la obtención de los alimentos necesarios para el mantenimiento de su metabolismo .

De la misma manera, se ha fabricado pan, cerveza, vino o queso sin conocimiento alguno acerca de la ciencia genética involucrada en estos procesos. Desde muy antiguo, los genes de los alimentos han sufrido una modificación, destinada a aumentar sus cualidades benéficas. La biotecnología moderna permite a los productores de alimentos hacer exactamente lo mismo en la actualidad, pero con mayor nivel de comprensión y capacidad selectiva.

En un principio, el hombre se alimentaba de los animales que podía cazar o de las especies vegetales que crecían en su entorno más inmediato, Posteriormente se idearon técnicas para cultivar ciertas plantas. Cuando los primeros seres humanos decidieron establecerse y cultivar sus alimentos, en lugar de vagar para encontrarlos, nacieron la agricultura y la civilización.

Con el tiempo, los métodos se han vuelto más sofísticados, pero todos los intentos por mejorar los cultivos de alimentos han dependido, del enfoque popular de la naturaleza hacia la producción. Las aves y abejas aún permiten a los reproductores cruzar cultivos con sus parientes silvestres. La reproducción de híbridos desarrolla características deseables, tales como un sabor más agradable, un color más intenso y mayor resistencia a ciertas enfermedades vegetales.

La era de los denominados «alimentos transgénicos» para el consumo humano ddirecto se inauguró el 18 de mayo de 1994, cuando la Food and Drug Adminístration de los  Estados Unidos autorizó la comercialización del primer alimento con un gen «extraño»  el tomate Flavr-Savr; obtenido por la empresa Calgene. Desde entonces se han elaborado cerca de cien vegetales con genes ajenos insertados. Los productos que resultan de la manipulación genética se pueden clasificar de acuerdo con los siguientes criterios:

• Organismos susceptibles de ser utilizados como alimento y que han sido sometidos a ingeniería genética como, por ejemplo, las plantas manipuladas genéticamente que se cultivan y cosechan.

• Alimentos que contienen un aditivo derivado de un organismo sometido ingeniería genética.

• Alimentos que se han elaborado Utilizando un producto auxiliar para el procesamiento (por ejemplo, enzimas), creado gracias a las técnicas de la ingeniería genética. Este tipo de sustancias suelen denominarse alimentos recombinantes. Para incorporar genes foráneos comestibles en la planta o en el animal, es preciso introducir vectores o «parásitos genéticos», como plásmidos y virus, a menudo inductores de tumores y otras enfermedades —por ejemplo, sarcomas y leucemias…… Estos vectores llevan genes marcadores que determinan la resistencia a antibióticos como la kanamicina o la ampicilina, que se pueden incorporar a las poblaciones bacterianas (de nuestros intestinos, del agua o del suelo). La aparición de más cepas bacterianas patógenas resistentes a antibióticos constituye un peligro para la salud pública.

Existen diferentes alternativas para conseguir la mejora vegetal mediante la utilización de la ingeniería genética. En el caso de los vegetales con genes antisentido, el gen Insertado da lugar a una molécula de mRNA que es complementaria del mRNA de la enzima cuya síntesis se quiere inhibir. Al hibridarse ambos, el mRNA de la enzima no produce su síntesis.

En el caso de los tomates Flavr-Savr la enzima cuya síntesis se inhibe es la poligalacturonasa responsable del ablandamiento y senescencia del fruto maduro. Al no ser activo, este proceso es muy lento, y los tomates pueden recolectarse ya maduros y comercializarse directamente Los tomates normales se recogen verdes y se maduran artificialmente antes de su venta, con etileno, por lo que su aroma y sabor son inferiores a los madurados de forma natural. En este caso, el alimento no Contiene ninguna proteína nueva.

La misma técnica se ha utilizado para conseguir soja con un aceite de alto Contenido en ácido oleíco (89% o más, frente al 24% de la soja normal), inhibiendo la síntesis deja enzima oleato desaturasa. La introducción de genes vegetales, animales o bacterianos da lugar a la síntesis de proteínas específicas. La soja resistente al herbicida glifosato, Contiene un en bacteriano que codifica la enzima 5-enolpiruvil-shikimato-3-fosfato sintetasa. Esta enzima participa en la síntesis de los aminoácidos aromáticos y la propia del vegetal es inhibida por el glitosato; de ahí su acción herbicida. La bacteriana no es inhibida.

El maíz resistente al ataque de insectos contiene un gen que codifica una proteína de Bacillus thuringiensis, que tiene acción insecticida al ser capaz de unirse a receptores específicos en el tubo digestivo de determinados insectos, interfiriendo con su proceso de alimentación y causándoles la muerte.

La toxina no tiene ningún efecto sobre las personas ni sobre otros animales. La utilización de plantas con genes de resistencia a insectos y herbicidas permite reducir el uso de plaguicidas y conseguir un mayor rendimiento. Además, se ha obtenido una colza con un aceite de elevado contenido en ácido laúrico, mediante la inclusión del gen que determina la síntesis de una tioesterasa de cierta especie de laurel. Los vegetales resistentes a los virus se consiguen haciendo que sinteticen una proteína vírica que interfiere con la propagación normal del agente infeccioso.

Estos vegetales contienen proteína vírica, pero en menor proporción que las plantas normales cuando están severamente infectadas.

Los vegetales transgénicos más importantes para la industria alimentaria son, por momento, la soja resistente al herbicida glifosato y el maíz resistente al insecto conocido como taladro. Aunque en algunos casos se emplea la harina, la utilización fundamental del maíz en relación con la alimentación humana es la obtención del almidón, y a partir de éste, de glucosa y de fructosa. La soja está destinada a la producción de aceite, lecitina y proteína.

Beneficios de la biotecnología de alimentos

Estas nuevas técnicas auguran posibilidades reales de optimizar la producción de alimentos. El método mencionado en el caso de los tomates —cosechados para el con-, sumo directo, sin necesidad de que maduren artificialmente en cámaras— se está aplicando al cultivo de melones, duraznos, plátanos y papayas de mejor sabor, y a flores recién cortadas, cuya duración se prolonga. Más concretamente, la biotecnología influirá positivamente en los siguientes aspectos:

• Mejor calidad de los granos en semilla.

• Mayores niveles de proteínas en los cultivos de forrajes.

• Tolerancia a sequías e inundaciones

‘•Tolerancia a sales y metales.

• Tolerancia al frío y al calor.

Los experimentos de manipulación genética aplicados a  producción de maíz han arrojado un balance positivo en la actualidad el maíz y la soja son los vegetales transgénicos más importantes para la industria alimentaria.

Riesgos de la Biotecnología de los alimentos

La introducción de genes nuevos en el genoma de la planta o del animal manipulado provoca transformaciones impredecibles de su funcionamiento genético y de SU metabolismo celular; el proceso puede acarrear la síntesis de proteínas extrañas para el organismo —responsables de la aparición de alergias en los consumidores…..; la producción de sustancias tóxicas que no están presentes en el alimento no manipulado, así como alteraciones de las propiedades nutritivas (proporción de azúcares, grasas, proteínas, vitaminas, etc.).

Hay suficientes peligros reales como para afirmar que estos alimentos no son seguros. Las experiencias pasadas con biocidas como el DDT, aconsejan una prudencia extrema. Junto a los riesgos sanitarios, la amenaza para el medio ambiente es, incluso, más preocupante La extensión de Cultivos transgénicos pone en peligro la biodiversidad del planeta potencia la erosión y la contaminación genética, además del uso de herbicidas (un importante foco de contaminación de las aguas y de los suelos de cultivo).

Según un informe de la OCDE, el 66% de las experimentaciones de campo con cultivos transgénicos que se realizaron en años recientes estuvieron encaminadas a la creación de plantas resistentes a herbicidas La Agencia de Medio Ambiente de Estados Unidos advierte de que este herbicida de amplio espectro ha situado al borde de la extinción a una gran variedad de especies vegetales del país; por otro lado, está considerado uno de los más tóxicos para microorganismos del suelo, Como hongos, actinomicetos y levaduras.

Otra de las preocupaciones fundadas es el posible escape de los genes transferidos hacía poblaciones de plantas silvestres, relacionadas con dichos cultivos transgénicos, mediante el flujo de polen: la existencia de numerosas hibridaciones entre si todos los cultivos transgénicos y sus parientes silvestres ha sido bien documentada.

La introducción de plantas transgénicas resistentes a plaguicidas y herbicidas en los campos de cultivo conlleva un elevado riesgo de que estos genes de resistencia pasen, por polinización cruzada a malas hierbas silvestres emparentadas creándose así las denominadas «súper malas hierbas», capaces de causar graves daños en plantas y ecosistemas naturales.

A su vez, estas plantas transgénicas con características nuevas pueden desplazar a especies autóctonas de sus nichos ecológicos. La liberación de organismos modificados genéticamente al medio ambiente tiene consecuencias a menudo imprevisibles, pues una vez liberados —el animal o la planta —,se reproducen y se dispersan por su hábitat, imposibilitando cualquier control.

Ver: Organismos Geneticamente Transformados

Vida y Obra de Russell Wallace Teoria de la Seleccion Natural

Vida y Obra de Russell Wallace
Teoría de la Selección Natural

Alfred Russel Wallace (8 de enero de 1823 – 7 de noviembre de 1913) fue un geógrafo y naturalista inglés. Wallace es conocido sobre todo por haber alcanzado el concepto de selección natural, central en la teoría biológica de la evolución, independientemente de Charles Darwin.

wallace russelEl nombre de Darwin y la evolución están inseparablemente ligados, a pesar de que el primer anuncio público de la teoría de lal selección natural no lo realizó Darwin solo, sino conjuntamente con Alfred Russell Wallace.

Aunque hacía muchos años que Darwin había concebido la idea de la evolución por la selección natural, estando ya por hacerla pública recibió una carta de Wallace, en la que le exponía una teoría casi análoga a la suya.

Eran tan semejantes, que Darwin, en una carta dirigida a Lyell, escribió: … “si Wallace hubiera poseído el esbozo del manuscrito que redacté en 1842, no habría podido hacer él un resumen mejor y más corto”. Así que, en julio de 1858, Darwin y Wallace presentaron una comunicación conjunta a la Linnean Society.

A lo largo de su vida, Wallace continuó defendiendo la teoría de la evolución, aunque sus puntos de vista presentaban ligeras diferencias con los de Darwin. Él opinaba que la supervivencia del mejor adaptado era el factor fundamental en la lucha por la vida, con lo que no estaba de acuerdo Darwin. Wallace también afirmaba que la selección natural no podía explicar ciertas características de los seres humanos: su inteligencia, la pérdida del pelo del cuerpo y el desarrollo especializado de las manos.

Wallace nació en Usk, Monmouthshire (Gran Bretaña), en 1823. Aunque estudió arquitectura y topografía, ya a los veinte años se sintió interesado por la historia natural, vocación que mantuvo hasta el fin de su vida. Fue un naturalista autodidacto que viajó mucho por América del Sur y sudeste de Asia, recogiendo ejemplares para su colección. Durante su estancia en Sudamérica, acompañado del naturalista inglés H. W. Bates, se mostró muy interesado por la extraña semejanza en la disposición de los colores,

 

observada en insectos entre los que no existía ninguna relación, y dedicó muchos de sus escritos a estos casos de semejanza.

 

Sobra maestra es, sin lugar a dudas, The Geographical Distribution of Animals (La distribución geográfica de los animales), publicada en 1876, que aún está considerad como un trabajo importante en materia d zoogeografía, y, en este campo biológico su nombre se ha perpetuado en la llamad línea Wallace.

Esta línea separa el archipielago Malayo en dos regiones, cada una con sus plantas y animales característicos. Por ejemplo, al este de la línea, los únicos mamíferos nativos encontrados son los marsupiales (mamíferos provistos de bolsa) y los monotremas (mamíferos ovíparos); al oeste sólo se encuentran mamíferos placentario Esto sugirió a Wallace la idea de que h islas del oeste habían estado, en otros tiempos, unidas a Asia, y las del este, a Australia La línea Wallace pasa entre Borneo y las Célebes al norte, y entre las islas de Bali y Lomboc al sur.

 

Su mente privilegiada le condujo a investigar muchos problemas relacionados con evolución, como la construcción de nidos por los pájaros —es decir, hasta qué punto trata de una cosa instintiva o producto la inteligencia—, el significado de las miradas diferenciaciones de color que se encuentran entre pájaros de ambos sexos de misma especie, y el hombre y su evolución

Al final de su vida, fue un detractor enérgico de la práctica de la vacunación, recien introducida, y se hizo espiritista. Estuvo siempre dispuesto a señalar el papel principal que Darwin había desempeñado en formulación de la teoría de la evolución deducida por ambos, independientemente Wallace falleció en 1913.

 

La Seleccion Natural Mediante El Uso de un Arma Biologica Natural

La Seleccion Natural Mediante El Uso de un Arma Biológica

Si un parásito matase a todos los huéspedes a los cuales encuentra, entonces también él perecería. Existen al menos dos estrategias que pueden adoptar los parásitos para asegurar su permanencia, y ambas dependen de su propio estilo de vida.

Por un lado, si el parásito es muy rápido para multiplicarse y pasar a otro huésped y si, al mismo tiempo, hay una cantidad infinita de nuevos huéspedes no infectados donde anidar, el parásito puede mantener un estado de alta virulencia generación tras generación. Sin embargo, la realidad es que si este tipo de parásitos tuviera el suficiente éxito, se haría cada vez más difícil encontrar una cantidad ilimitada de nuevos huéspedes no infectados.

Lo lógico en este caso es que la población huésped disminuya, y por lo mismo la “comida” potencial del parásito también disminuirá. Por ello, el mantenimiento de un estado de alta virulencia termina siendo contraproducente para el propio parásito. Así, si cualquiera de los preceptos mencionados no se cumple, al parásito no le queda otro camino que atenuar su virulencia.

En este caso cuenta con la complicación de que el huésped también tendrá tiempo para combatirlo, por lo que los parásitos deberán utilizar este tiempo para cambiar y adaptarse también a las nuevas respuestas del huésped. Por lo mismo, casi todas las relaciones de coevolución, con el tiempo, terminan en la atenuación de las respuestas entre predador y presa. Para ilustrarlo veamos una serie de desventuras ocurridas en Australia.

Los diseñadores de políticas ambientales australianas no les temían a los riesgos y por ello se embarcaron en un proyecto que, para controlar un desbalance grave del equilibrio ecológico, implicó una serie de peligros que no se tuvieron en cuenta y generaron nuevos desequilibrios. No hubo conejos en Australia hasta 1859, cuando un señor inglés importó apenas una docena de estos encantadores animalitos desde Europa, para distraer a su esposa y agraciar su hacienda. Los conejos se reproducen muy rápido, apenas un poco más rápido de lo que tardamos en reconocer el problema que generan. Y ese “apenas” es más que suficiente.

En poco más de un lustro (1865), el mencionado caballero había matado a un total de 20.000 conejos en su propiedad y calculó que quedaban todavía otros 10.000. En 1887, en Nueva Gales del Sur solamente, los australianos mataron 20 millones de conejos. Llegado el siglo XX aparecieron nuevas herramientas de combate contra las plagas. En la década de 1950, la vegetación de Australia estaba siendo consumida por hordas de conejos. En ese año el gobierno trató de hacer algo para detener a los simpáticos animalitos. En Sudamérica, los conejos locales están adaptados a un virus con el que conviven desde hace mucho tiempo. este se transmite cuando los mosquitos que toman la sangre de un conejo infectado lo depositan sobre un conejo sano, ya sea por deposición o por la nueva picadura. Este agente infeccioso, denominado virus de la mixomatosis, provoca sólo una enfermedad leve en los conejos de Sudamérica, que son sus huéspedes normales.

La mixomatosis ha generado una de las mayores catástrofes ecológicas de la historia y el desmantelamiento de las cadenas tróficas en el ámbito mediterráneo, donde el conejo era la base de la alimentación de rapaces y carnívoros. De nuevo el responsable de esta catástrofe fue el ser humano al ser introducida la enfermedad en Francia en 1952, desde donde se extendió por toda Europa. Dicha enfermedad se había llevado a Australia anteriormente para erradicar el conejo allí, que era plaga.

Sin embargo, es mortal para el conejo europeo, que fue el que se implantó en Australia. Así que en Australia se liberaron en el campo una gran cantidad de conejos infectados con el virus de la mixomatosis, esperando que [os mosquitos autóctonos hicieran el trabajo de esparcir el agente infeccioso. En un comienzo, los efectos fueron espectaculares y la población de conejos declinó de manera constante: llegó a ser menos del 10% de la población original, cuando comenzó el tratamiento en gran escala. De esta manera se recuperaron zonas de pastura para los rebaños de ovejas, de los cuales depende en gran medida la economía de Australia.

Sin embargo, en poco tiempo aparecieron evidencias de que algunos conejos eran más resistentes a la enfermedad. Como estos conejos eran los que más se reproducían, sus crías también resultaron resistentes al virus de la mixomatosis. Cuando el fenómeno se estudió en forma global, se observó que no sólo los conejos se volvían más resistentes, sino también que el virus iba atenuando su virulencia generación tras generación. Así, había ocurrido un doble proceso de selección. El virus original había resultado tan rápidamente fatal que el conejo infectado solía morir antes de que tuviese tiempo de ser picado por un mosquito y, por lo tanto, de infectar a otro conejo; la cepa del virus letal, entonces, moría o desaparecía junto con el conejo. Por otra parte, en la preparación original de virus debería de haber algunos más atenuados.

En las condiciones de muy alta mortalidad de los conejos, las cepas virales de efectos más atenuados tenían una mejor probabilidad de sobrevivir, dado que disponían de mejores oportunidades y, fundamentalmente, de más tiempo para encontrar un nuevo huésped. De tal manera, la selección comenzó a operar en favor de una cepa menos virulenta del virus. Por su parte, un conejo que sobrevive a una infección inicial queda “protegido” como si hubiera sido vacunado, por lo que no vuelve a enfermarse fácilmente. Además es probable que los sobrevivientes hayan sido los que más resistencia intrínseca tuvieron al virus original. De esta manera su descendencia también debía ser más resistente, por lo que cuando estos conejos comenzaron a proliferar, todos los conejos australianos fueron adquiriendo resistencia al virus de la mixomatosis. Hace poco tiempo, como resultado de la rápida coevolución, la relación huésped-parásito se estabilizó, por lo que los conejos volvieron a multiplicarse, y regeneraron la población existente antes del comienzo del ataque.

En definitiva, se utilizó un arma biológica tremendamente activa, pero las consecuencias distaron mucho de ser las esperadas. De hecho, no se contuvo la proliferación de los conejos y se mantuvo el riesgo del desequilibrio ambiental comenzado hace 150 años, y; por el contrario, se generó una adaptación de los animales, se los tomó más fuertes para resistir a una plaga como el virus de la mixomatosis A pesar de las enseñanzas que debieron haber quedado después de este tremendo fracaso, hace poco tiempo se intentó nuevamente en Australia repetir la metodología para eliminar Los conejos con un nuevo patógeno cuya dinámica poblacional se desconocía casi por completo. Es obvio que hay gente a la que le encantan los riesgos. El problema es cuando al asumirlos se involucra a demasiadas personas, o, como en este caso, a un ecosistema completo.

satira a darwin
Portada en una revista, publicado con ironía la teoría de Darwin

A lo largo de la evolución, y mediante el proceso de selección natural, los organismos de las distintas especies han ido adquiriendo modificaciones morfológicas, fisiológicas y comportamentales con las cuales han logrado responder y adaptarse a las características Particulares de su medio.

ESTRATEGIA ADAPTATIVA DE PLANTAS Y ANIMALES
FACTOREFECTOSADAPTACIONES DE LAS PLANTASADAPTACIONES DE LOS ANIMALES
Escasez de AguaDeshidratación.
Estrés hídrico.

Reducción de la superficie foliar, por la que las plantas transpiran: espinas.Esclerofilia (hojas duras, coriáceas o revestidas con ceras o quitina, que las protegen de la radiación intensa y de la desecación)

Plantas con metabolismoCAM (los estomas de las hojas sólo se abren de noche para captar el CO2, con lo que se evita la pérdida de agua que se produciría si los estomas se abrieran durante las horas de mayor radiación solar).

• Piel estratificada, con varias capas de células (por ejemplo, en los vertebrados).• Productos de excreción concentrados, como el ácido úrico o le urea en lugar del amoníaco.

• Elevada reabsorción intestinal de agua en las heces.

• Obtención de agua metabólica a partir de la oxidación del hidrógeno de los alimentos.

TemperaturaTemperaturas altas: deshidratación desnaturalización de las enzimas.
Temperaturas bajas: cristalización del agua en los tejidos, retardo del metabolismo.
Las mismas que para la escasez de agua.Al calor y al frío: cambios comportamentales (mayor actividad diurna durante el invierno y mayor actividad nocturna o crepuscular durante períodos cálidos); regulación social de la temperatura: vida en grupos, sobre las ramas de los árboles o en cuevas; vida subterránea.
Escasez de Alimentos, baja disponibilidad de nutrientesCrecimiento y desarrollo deficientes.Inanición.Plantas carnívoras, como respuesta a la escasez de nitrógeno en pantanos, bosques con suelos empobrecidos, etcétera.Asociación con bacterias fijadoras ; de nitrógeno en leguminosas: nódulos radiculares. Asociación con hongos (micorrizas) en distintas plantas.Almacenamiento en cuevas y guaridas, como en las hormigas y otros insectos sociales.Acumulación de reservas en la grasa corporal.
Salinidad•  Efecto osmótico: tendencia de los tejidos a perder agua en ambientes muy salinos (medio hipertónico), y a ganar agua e hincharse en ambientes poco salinos (medio hipotónico).•  Efecto iónico: toxicidad en plantas (especialmente por Cl y Na4).Secreción de iones a través de glándulas especializadas.Suculencia: planta de aspecto globoso; incorporan agua para diluir la concentración de sales.Vida marina (medio hipertónico): beben agua de mar y luego secretan el exceso de sales a través de las branquias y las glándulas de la sal; producen una orina concentrada.Agua dulce (medio hipotónico): no beben agua y absorben sales a través de la piel y las branquias; producen una orina diluida.

Fuente Consultada:
Ahí viene la plaga Colección: «Ciencia que ladra….» Mario Lozano

Selección Artificial Acción del Hombre en las Especies

LA SELECCION ARTIFICIAL: LA ACCIÓN DEL HOMBRE EN LA SELECCIÓN DE LAS MEJORES ESPECIES

En su célebre obra, Darwin hace una serie de consideraciones acerca de las variaciones que aparecen en muchas especies de plantas y animales domésticos. Llegó a la conclusión de que, evidentemente, todas las especies de plantas y animales domésticos proceden de especies silvestres. La explicación era sencilla el hombre no ha sido siempre agricultor y ganadero, ya que sabemos que en tiempos remotos vivía exclusivamente de la caza y de la pesca, o de la recolección de frutos (etapa de cazador-recolector), forma de vida que conservan actualmente algunas tribus remotas de Nueva Guinea o de la Amazonia.

En algún momento en la historia, el ser humano eligió determinadas especies de animales que le eran particularmente útiles como alimento y comenzó a criarlas en cautiverio. Estos primeros intentos constituyeron el comienzo de la ganadería, que más tarde se iría perfeccionando hasta llegar a nuestros días.

Al observar las actuales especies de animales domésticos, inmediatamente se advertirá que la variación que se presenta entre los individuos es mucho mayor que la que aparece en el mismo animal en estado silvestre. Darwin fue un profundo conocedor de muchas especies de animales domésticos, y él mismo, durante una larga etapa de su vida, se dedicó en el campo a la cría de palomas.

En el caso de la paloma, Darwin llegó a la conclusión de que todas las razas domésticas procedían de la paloma de las rocas, Cotumba livia.

Si bien ésta presenta características muy constantes en cuanto al tamaño, el color, la forma de las alas, el pico y la cola, etc., el número de variaciones observado en las razas domésticas es sumamente elevado.

Otro ejemplo examinado por Darwin es el caballo, un animal de gran utilidad para el hombre, que ha sido sometido a un largo proceso de selección artificial desde hace miles de años. Así, mediante cruzas controladas se han obtenido muchísimas razas de caballos que son diferentes tanto por su aspecto como por su capacidad.

Dos ejemplos son los pura sangre y los percherones. Los caballos de pura sangre son altos, de cascos pequeños y patas delgadas y musculosas. Son notablemente veloces y, por eso, son los típicos caballos de carrera. Por otro lado, los percherones son caballos de poca alzada, grandes cascos y patas cortas y fuertes. No pueden tener gran velocidad, pero son caballos muy fuertes y resistentes, lo que los hace muy aptos como animales de tiro.

Las variaciones que se dan en los cereales, las frutas y las hortalizas cultivadas son incluso más notables que las de los animales, si se comparan con las correspondientes especies silvestres.

A pesar de la posible influencia de las condiciones ambientales y de las costumbres, Darwin asignó a la acción humana el papel fundamental en la variabilidad de las especies domésticas de plantas y animales.

Desde la época de los faraones egipcios, el ser humano eligió las semillas de plantas más robustas y los animales mejor dotados para utilizarlos como reproductores en la agricultura y en la ganadería. De esta forma, consiguió mejorar las razas.

Lo que hace el hombre es “seleccionar” aquellos individuos que presentan espontáneamente variaciones interesantes que pueden transmitirse a la descendencia. En los cereales, por ejemplo, elegirá las semillas de mayor tamaño o más robustas, ya que sabe que di-chas semillas normalmente darán origen a plantas jóvenes mejores que las semillas de plantas raquíticas o que han dado menos frutos. Estos mismos ejemplos podrían ampliarse a todos los animales y plantas domésticos.

Evidencias aportadas por la selección artificial
La cruza de animales de cría o de plantas cultivadas para obtener individuos con ciertas características deseables fue una práctica implementada por el hombre desde la época en que abandonó la caza y la recolección como principal forma de subsistencia y se estableció en un sitio por un período más prolongado.

En esta práctica, llamada selección artificial, el criador de animales tales como perros, gatos, vacas, ovejas, caballos, palomas, u otras especies selecciona entre los progenitores a los individuos cuyas características se ajustan a lo que busca, y aparta a los otros posibles progenitores. Como la descendencia puede presentar características no deseadas, el criador vuelve a seleccionar en cada generación los individuos que se ajustan a sus preferencias. De este modo, resulta que las características de los descendientes aparecen fuertemente diferenciadas de las de los ancestros.

Este proceso le ha permitido al hombre obtener una gran variedad de razas de perros, tan diferentes en tamaño y aspecto como un gran danés, un ovejero alemán o un chiguagua. Asimismo, es notable la diversidad de razas de los diferentes tipos de ganados vacuno, ovino, lanar, en muchos casos muy distintos de sus parientes ancestrales que podrían encontrarse en estado salvaje.

De la misma forma, se han obtenido muchas plantas cultivadas, tanto alimenticias como ornamentales, con notables diferencias con respecto a sus estados originales.
Esta práctica llamó poderosamente la atención de Darwin y le aportó una de las evidencias más importantes para sustentar sus hipótesis.

La selección artificial continua era lo suficientemente poderosa como para provocar cambios observables en tiempos relativamente cortos. Dados los largos períodos de la historia evolutiva, la selección natural parecía una explicación adecuada para la aparición de nuevas especies.

Fuente Consultada:
Biología y Ciencias de la Tierra La Selección Natural Capitulo: 15

Accion del Medio Ambiente en la Vida Humana Adaptacion

Adaptación del Hombre Al Medio Ambiente
Acción del Medio Ambiente

Todos los seres vivos muestran diferentes características que se relacionan con el medio en que viven, las cuales se clasifican en anatómicas o estructurales, fisiológicas y comportamentales o etológicas.  A estas características se las conoce como adaptaciones.

Las adaptaciones son respuestas de los organismos a las necesidades y los problemas que les plantea la vida en un medio determinado.

Desde el punto de vista del medio, el agua, la temperatura, la luz, la presión, la disponibilidad de nutrientes, etc., constituyen los factores ecológicos que determinan las adaptaciones estructurales, fisiológicas y etológicas. Ello se debe a que la gama de variables ambientales en los distintos puntos del planeta es sumamente amplia, e incluye, por ejemplo:

•  temperaturas de -70 °C en la Antártida a 50 °C en el desierto del Sahara;
•  la falta de oxígeno cuando se llega a una zona de gran altura o el aumento de presión al descender;
•  la presencia de zonas permanentemente inundadas o de zonas áridas;
•  la existencia de medios hipersalinos o hiposalinos;
• la falta de nutrientes; la luz intensa o la oscuridad absoluta, etcétera.

Uno de los aspectos más importantes de la adaptación al medio es el análisis de la relación existente entre estructura y función. Por ejemplo, en una zona árida, el desarrollo del sistema radicular de una planta (estructura) posibilita la captación de agua en los niveles profundos (función), y el desarrollo de las alas en un ave (estructura) facilita la dispersión al permitir el vuelo (función).

LA VIDA DEL HOMBRE SEGÚN SU MEDIO AMBIENTE: Si analizamos el tipo de vida de los habitantes de una región cualquiera podemos advertir fácilmente la estrecha relación que mantiene con el medio geográfico. Muchas regiones poseen actualmente una población económicamente poco desarrollada , debido a las condiciones desfavorables del medio. Esto es lo que ocurre en las selva, en la tundra , y en los desiertos, regiones donde el paisaje natural apenas ha sido afectado por la actividad de la población, que vive bajo la influencia aplastante de una naturaleza hostil.

En las regiones donde el medio se ha mostrado más acogedor se ha desarrollado notablemente la civilización y el hombre parece haber logrado un ajuste favorable con la naturaleza. Este ajuste, sin embargo, no ha sido fácil, porque para alcanzarlo ha debido el hombre trabajar intensamente. Pero ni aun el trabajo humano hubiera sido suficiente para libertar totalmente al hombre de su medio.

medio ambiente y el hombre

El hombre civilizado necesita de todo el rendimiento de su inteligencia en forma de invenciones, descubrimientos, avances en el conocimiento de las leyes de la naturaleza y el mejoramiento de su organización social, para multiplicar la efectividad de su esfuerzo. Todo este progreso tecnológico, propio de nuestra civilización industrial, ha permitido al hombre moderno utilizar las ventajas que la naturaleza le ofrece y sortear los obstáculos que le presenta.

El hombre civilizado ha podido crear el paisaje cultural de muchas regiones derribando los bosques, exterminando los animales dañinos y domesticando los útiles, irrigando las tierras secas, drenando ciénagas, construyendo puentes y embalses, fabricando redes de ferrocarril y carreteras y tendiendo instalaciones telefónicas y eléctricas. Ha construido ciudades, puertos y fábricas, creado instituciones sociales, dictado leyes y desarrollado las industrias, pero el hombre no ha dominado todavía, ni dominará nunca, el medio geográfico.

Las grandes características de la superficie terrestre y los procesos de la naturaleza que constituyen los elementos fundamentales del paisaje natural, permanecen invariables después de más de un millón de años de haber aparecido sobre la tierra los primeros seres semejantes al nombre.

El progreso de la humanidad es, pues, el resultado no de la conquista de la naturaleza por el hombre, sino de que el hombre ha ido comprendiendo mejor la naturaleza y ha colaborado inteligentemente con ella. Al basar su economía sobre las leyes naturales, de acuerdo con las características geográficas de cada región, el hombre ha logrado una mayor producción y, por lo tanto, un nivel de vida más alto.

La habitación humana. Además de alimentación y vestido, el hombre necesita descansar diariamente, entregándose al sueño. Desde su aparición sobre la tierra el hombre necesitó un refugio para estas horas en que podía estar a merced de los animales o de otros hombres. Las ramas más altas de los árboles y las cavernas debieron ser sus primeras habitaciones. Más tarde el hombre comenzaría a construir su vivienda de acuerdo con los recursos que el medio le ofrecía.

La adaptación de la habitación a las condiciones del medio es uno de los hechos geográficos más evidentes, pues el tipo de vivienda está estrechamente influenciado, entre otros factores, por el clima y la vegetación, así como por el tipo de ocupación de nivel de civilización de los habitantes de cada región.

En las regiones de clima frío las paredes de las casas son gruesas, presentan muchas ventanas para dar paso a la luz y los techos son muy inclinados para que no retengan la nieve. En las latitudes medias las casas poseen menos ventanas y los techos son menos inclinados; en las regiones de clima mediterráneo las casas son relativamente pequeñas, pintadas de blanco o de colores claros y los techos son casi siempre horizontales En las bajas latitudes hay la tendencia a construir grandes corredores en torno a las casas, y patios centrales para aliviar el fuerte calor.

Las casas difieren tanto por su forma como por sus materiales, ya que el hombre debe adaptar su construcción a los recursos disponibles en la región. Esta variedad incluye casas de madera, de piedra, cavernas excavadas en las rocas, casas de adobe, tiendas de pieles, chozas de techo de paja, iglús de hielo y rascacielos de acero y concreto.

La casa de madera predomina en las regiones de bosques. En algunos casos, como en los templos del Japón, las construcciones de madera alcanzan enorme tamaño. En Suecia y Noruega, en el norte de Rusia y de Canadá, y en Alaska, los bosques de coníferas suministran madera para la construcción de las casas. En el sur de Estados Unidos, predominan todavía las casas de madera.

En las zonas que bordean el Mediterráneo, en cambio, donde el bosque es de poco rendimiento  y hay abundancia de rocas como la arenisca y la arcilla, predominan las casas de piedra; y en algunas zonas del sur de Europa se encuentran muchas casas construidas perforando las rocas, en forma de cavernas artificiales.

En las regiones áridas, donde la madera y la piedra escasean, es costumbre construir las casas con ladrillos de arcilla secada al sol. En la antigua Mesopotamia se construía ya en esta forma y el método se mantiene en el Oriente Próximo, en el norte de África y aun en China. Las casas de adobe de los indios pueblos del Suroeste de Estados Unidos, son excelentes ejemplos de este tipo de habitación.

En las estepas, donde todavía los pastores nacen la vida nómada, se encuentran las tiendas de pieles o fieltro. Las yurtas o tiendas redondas de los mongoles pertenecen a este tipo de habitación, fácil de armar y desarmar y de transportar.

En las bajas latitudes, en regiones cálidas y lluviosas, es común la casa construida de maderas y cubierta de hojas secas de palma. Este tipo de construcción se encuentra en América, África, en el sureste de Asia y en las islas del Pacífico.

Los pueblos pescadores primitivos que vivían en las márgenes de los lagos fabricaban sus casas sobre pilotes, encima del agua. Estos palafitos se encuentran aún entre los pueblo aborígenes de distintas regiones.

Los esquimales construyen sus casas permanentes de piedra y tierra para el invierno, pero pueden construir en pocos minutos refugios temporales de hielo (iglús). En los cortos veranos árticos viven en tiendas de pieles.

El desarrollo de la civilización ha estimulado el crecimiento de las ciudades. Al aumentar el valor de la tierra la tendencia actual en las grandes ciudades, es a fabricar casas más altas, para ahorrar espacio. El ejemplo más característico de este crecimiento vertical de la habitación humana lo ofrece la ciudad de New York con sus numerosos rascacielos.

Condiciones Para La Vida en el Planeta Factores Ambientales Basicos

Condiciones Para La Vida en el Planeta
Los Factores Ambientales

la vida en el planeta

TEMA RELACIONADOS

La Aparición De La Vida
La Teoría De La Evolución De Charles Darwin
La Terapia Genética
La Eutanasia o Muerte Digna
El Origen Del Hombre En El Planeta
El Proyecto Genoma Humano

La Clonación Humana y Animal
La Eugenesia o Reproducción de las Mejores Especies 

LA VIDA EN EL PLANETA TIERRA: Separar el mundo inerte del mundo organizado parecía, hasta nace pocos lustros, una tarea muy sencilla: un elefante es un ser vivo y una roca no. Mas al profundizar en el conocimiento de los seres infinitamente pequeños, se llega a dudar y se ve como algo sumamente confuso la línea divisoria entre los dos mundos. Hay cuerpos que no es posible determinar de un modo claro si son seres vivos o moléculas inorgánicas muy complicadas. Pertenecen al mundo de las proteínas.

Los virus, por ejemplo, son microbios sumamente pequeños. El productor de la poliomielitis, que tantos quebraderos de cabeza ha proporcionado a médicos y biólogos, mide una centésima de miera. Son necesarios, por tanto, 100.000 de ellos puestos en fila para formar un milímetro. Se comprende que sólo el microscopio electrónico haya sido capaz de hacerlos visibles.

Las nucleoproleínas, sustancias químicas formadas por moléculas sumamente complicadas, en algunos casos se comportan exactamente igual que los virus y se ha llegado a dudar si son seres vivos o sólo compuestos químicos. Los doctores Fraenkel y Williams, de los Estados Unidos, afirmaron que hablan obtenido en sus laboratorios nucleoproteínas vivas por síntesis, es decir, hablan creado vida, pero en una forma tan rudimentaria., que sólo podían existir sobre otras materias vivas. Se trataba, por tanto, de algo que está en la borrosa línea que separa lo vivo de lo inerte.

Pero esta imitación o creación de vida simplicísima en el laboratorio se halla a gran distancia de la complejidad de un ser vivo tan sencillo como puede ser una ameba o un hongo.Se conocen las manifestaciones de la vida y se señalan sus notas características, pero los científicos están acordes en no saber qué cosa es en sí la vida.

Porque ésta presupone, además de una cierta organización de los elementos que forman el cuerpo vivo, la unidad de intención, es decir, la tendencia por la que todas las partes contribuyen a una finalidad. En un huevo, por ejemplo, se encuentran uña serie de sustancias (azúcares, grasas, proteínas y agua) que son los compuestos orgánicos indispensables para que exista la vida.

Éstos tienden a transformarse en un polluelo, que es un microcosmos complicadísimo en el que billones de células trabajan ordenadamente para cumplir ese fin o tendencia que da por resultado un pollo adulto. ¿Por qué no se descomponen dichas sustancias y dan lugar a carbono, hidrógeno, oxígeno, nitrógeno y pequeños rastros de fósforo, azufre, calcio, etc.? ¿Por qué tienden a complicarse en lugar de descomponerse?

En esta tendencia, que supone organización, se encuentra oculto el gran secreto de la vida.

Los cuatro grandes elementos del mundo viviente son el Carbono, el Oxígeno, el Hidrógeno, y el Nitrógeno. Sin ellos no puede existir vida alguna y es tan importante el papel que juegan en la Biología, que el 99 % de todo ser vivo está formado por estos cuatro cuerpos simples.

En el mundo impera una ley implacable de cambio, de evolución, que somete a todas las cosas y resulta imposible de evitar y menos prever en cuanto a su duración y término. En los seres inertes, la erosión, los elementos atmosféricos, la gravedad, etc., determinan este desgaste continuo que se da en las montañas, en los monumentos y en cualquier obra humana o de la naturaleza.

Los seres inertes no pueden luchar contra este desmoronamiento constante y fatal, pero los seres vivos sí, y para evitarlo se nutren y asimilan sustancias que les son necesarias. Durante su infancia y juventud, esta asimilación les proporciona energía suficiente no sólo para vivir, sino para crecer. Es en la vejez cuando la nutrición no es suficiente para detener la caída del ser vivo hacia la muerte, donde se precipita por un proceso natural, de desasimilación, pérdida y decadencia.

Los seres vivos necesitan, pues, extraer del ambiente los cuatro elementos antes citados y que permitirán al laboratorio de su cuerpo transformarlos en sustancia propia.

La asimilación del Oxígeno y del Hidrógeno por entrar estos elementos en la formación del agua, no constituyen problema, pero ni el Carbono, ni el Nitrógeno pueden captarse directamente del mundo natural. Los procesos por los cuales los seres vivos se ingenian para apropiarse estos elementos y el ciclo de cambios constantes por los que pasan de unos vivientes a otros, constituye uno de los hechos más admirables de la Biología.

La biosfera es la región de la Tierra que alberga a los seres vivos. En sentido estricto, es la zona comprendida entre los fondos marinos abisales, situados a unos 11.000 m de profundidad y la altura máxima terrestre, que es de casi 9.000 m de altura sobre la superficie del mar. En realidad estos 20 Km. de espesor máximo se reducen enormemente si consideramos, por un lado, que la gran mayoría de los mares y océanos no son tan profundos y por otro, que los seres vivos que habitan el medio terrestre no lo hacen más allá de unos 200 m por encima del suelo.

En cualquier caso la biosfera constituye una capa muy delgada si la comparamos con el resto de capas que forman nuestro planeta y está formada por gran cantidad de ambientes distintos donde los seres vivos desarrollan sus actividades de maneras muy diversas.

La biosfera no es una capa homogénea, debido a que los organismos tienden a acumularse en determinados lugares donde las condiciones para la vida son más adecuadas. Estas condiciones vienen determinadas básicamente por los denominados factores ambientales, de los cuales los más importantes son: la temperatura, la luz, el agua y la presión.

La temperatura
La Tierra posee unas condiciones únicas para el desarrollo de la vida sobre su superficie si la comparamos con otros planetas del sistema solar. Esto se debe entre atrás cosas a que, por su distancia del sol f por la existencia de las capas atmosféricas, disfruta de un régimen de temperaturas adecuado.

El desarrollo y mantenimiento de la vida requiere que la temperatura se mantenga dentro del intervalo comprendido entre la temperatura extrema mínima de 0°C y la temperatura extrema máxima de 50 °C aproximadamente.

A temperaturas inferiores a los 0°C, el agua, cuya proporción es mayoritaria en los organismos, se congela, mientras que por encima de los 50 :C, las estructuras biológicas más importantes que forman la materia viva, como las proteínas, que veremos en caratillos posteriores, sufren un proceso denominado desnaturalización, por el cual pierden tanto su estructura física como las propiedades. Existe una temperatura óptima entre los 5 y los 30 °C, en la que la mayoría de los seres vivos desarrollan sus funciones a la perfección.

Hay que tener en cuenta además que el proceso vital en cualquier organismo se compone de una gran cantidad de reacciones químicas que, como tales, dependen muy directamente de la temperatura a la que se realicen. De esta manera y siempre dentro del intervalo de temperaturas óptimas, a mayor temperatura, mayor velocidad de reacción y viceversa.

la vida en el planeta tierra

Los mamíferos pueden conservar el calor de sus cuerpos con independencia de la temperatura ambiental, pudiendo vivir en lugares muy fríos, como es el caso de los osos polares.

No obstante, es fácil encontrar en el seno de la biosfera zonas donde se sobrepasen, no sólo el rango de temperaturas óptimas, sino también el de temperaturas extremas, por lo que la gran mayoría de los organismos han desarrollado diferentes estrategias para mantener sus funciones vitales de manera adecuada bajo dichas condiciones.

Entre los seres vivos, son los animales por la variedad y complejidad de sus funciones, los que han tenido que desarrollar mecanismos más eficaces para el control de su temperatura interna. Dependiendo de cómo realizan este control, podemos distinguir entre animales poiquilotermos, como los reptiles, y homeotermos, como los mamíferos. A los primeros se les conoce vulgarmente como animales de sangre fría y a los segundos como animales de sangre caliente.

Los poiquilotermos se caracterizan por carecer de mecanismos eficientes para el control de su temperatura interna por lo que su metabolismo depende mucho de la del exterior, viéndose obligados, muchas veces, a pasar períodos de inactividad cuando las condiciones son extremas. En cambio, los homeotermos, consiguen mantener una temperatura interna siempre constante en torno a los 37 °C, lo cual les permite realizar sus funciones con bastante independencia de las condiciones ambientales.

reptil, la vida en el planeta

A Los reptiles, como el yacaré de la fotografía, no pueden mantener su temperatura interna de manera independiente a la del medio, por lo que únicamente pueden vivir en sitios cálidos.

Los vegetales generalmente combaten las temperaturas poco favorables perdiendo, de manera temporal, sus partes más sensibles (hojas, partes aéreas, etc.) y desarrollando estructuras especiales de resistencia (semillas, yemas, zonas leñosas, etc.).

La luz: La luz constituye un factor ambiental muy importante, ya que es la fuente de energía primaria a partir de la cual las plantas pueden desarrollar el complejo proceso de la fotosíntesis. Mediante este proceso se convierte la energía lumínica en energía química, la cual puede ser utilizada posteriormente en otros importantes ciclos metabólicos, bien por la misma planta o bien por otros organismos. La importancia de la fotosíntesis es tan grande que podemos afirmar sin duda alguna que el mantenimiento de la vida sobre la Tierra depende de este proceso.

La luz también influye en el desarrollo de la morfología de las plantas, determinando la dirección en la que deben crecer los tejidos y brotes permitiendo así una disposición óptima para la captación de energía.

Para los organismos no fotosintéticos, la luz es un factor que posibilita la visión y por tanto la facultad de relacionarse con el medio en el que viven. También interpone en los procesos de regulación de la actividad estacional. La distinta duración de los períodos de iluminación diurna a lo largo del año constituye un fenómeno denominado foto período que actúa como reloj biológico y sirve para desencadenar  importantes fases en la vida del organismo como por ejemplo la reproducen, la muda, la migración, la floración, etc.

En el medio acuático la penetración de a luz es menor que en el medio terrestre, le tal manera que a partir de los 200 m le profundidad reina una oscuridad absoluta. La zona comprendida entre la superficie del agua y la profundidad hasta donde llega la luz se denomina zona fótica, y es donde se acumula la mayor parte de los organismos acuáticos distribuyéndose en estratos o capas según las necesidades de luz que tienen.

La presión: El medio que rodea a los seres vivos ejerce una presión sobre ellos que también influye en la estructura y fisiología de los mismos.

En el medio terrestre, en el que los organismos están rodeados de aire, la presión se denomina presión atmosférica. Su valor varía ligeramente con la altura v la temperatura, de tal modo que al nivel del mar y 0°C, es de 760 mm. de Hg ( 1atmósfera), pero disminuye progresivamente a medida que ascendemos y también a medida que la temperatura aumenta. La  presión que se registra en el medio acuático se denomina presión hidrostática y su valor depende sólo de la altura de la capa de agua que hay por encima del organismo. S

u valor aumenta de manera lineal una atmósfera cada 10 m.  profundidad, de tal manera que a unos 10 m. la presión llega a ser de una tonelada por cada cm;. lo cual no impide que puedan vivir algunos organismos especialmente adaptados.

Esta variación de presión, si la comparamos con la que se produce en el medio terrestre, es muy grande, lo que provoca que la mayoría de los organismos acuáticos desarrollen sus actividades únicamente a la profundidad que están preparados para soportar, pudiendo perecer si la abandonan accidentalmente. Esta situación se hace drástica en los organismos que poseen cavidades internas rellenas de aire, como es el caso de muchos peces, mamíferos cetáceos y aves buceadoras. Estos organismos pueden morir aplastados o sufrir trastornos fisiológicos desastrosos si se sumergen a una profundidad excesiva.

El agua: El agua es la sustancia que se encuentra en mayor proporción formando parte de la materia de todos los seres vivos. En algunos casos puede llegar a constituir más del 90% del volumen total del organismo. Su importancia queda patente si consideramos la gran cantidad de funciones que realiza: sirve de disolvente en las reacciones bioquímicas que se producen en el interior de la célula; es el medio de transporte de los nutrientes y desechos en muchos organismos; interviene en la transpiración y fotosíntesis de las plantas; sirve de esqueleto hidrostático en muchos invertebrados; constituye el medio en el que viven los organismos acuáticos y, por último, sirve de controlador de la temperatura ambiental y corporal dada su elevada capacidad calorífica.

Todo organismo mantiene un equilibrio por el que se pierde y se incorpora agua continuamente durante el desarrollo de sus actividades vitales y que recibe el nombre de equilibrio hídrico. Todos los seres vivos, desde los protozoos unicelulares hasta los mamíferos más grandes poseen mecanismos para controlar eficazmente dicho equilibrio. Su mantenimiento es más fácil en los organismos marinos que en los que viven en agua dulce.

En los organismos terrestres es donde se dan los mecanismos de regulación más sofisticados, porque son los que más fácilmente pueden perder el agua que contienen (por transpiración, respiración, etc.) sufriendo, además, mayores dificultades para incorporarla. Es por ello que la disponibilidad de agua constituye un importante factor que condiciona enormemente la distribución de los organismos terrestres.

Fuente Consultada: DIDÁCTICA Enciclopedia Temática Ilustrada Editorial Oriente

La Enfermedad de Vaca Loca en el Ganado Bovino

La Enfermedad de Vaca Loca

ANIMAL VACA ENFERMALa ganadería comprende las diversas actividades (alimentación, selección, reproducción e higiene) que se desarrollan en la cría de animales, con el fin de obtener determinados productos principalmente destinados a su consumo por el ser humano.

La ganadería constituye para la mayoría de los países una actividad fundamental. Con la cría de ganado, el ser humano obtiene productos esenciales en la cadena alimentaria, como carnes, huevos, leche y todos sus derivados. El ganado puede ser usado como medio de transporte, ya sea de carga o de tracción; incluso en algunos países, como la India, para trabajos forestales.

Se crían animales para extraerles sus lanas y pieles que luego serán utilizadas por las industrias textiles, peleteras y de calzado. Muchos bienes fabricados por el hombre usan como materia prima productos animales: los cosméticos, los sueros, algunas medicinas, abonos, bisutería, etc. La equitación y la lidia de toros son actividades con muchísima demanda en ciertos grupos sociales de determinados países. Algunas especies domésticas se criar como animales de compañía o para distintos servicios, como en el caso de los perros, los cuales se utilizan para pastoreo, caza y como apoyo en determinadas acciones de la policía, el ejército y los bomberos.

En los países desarrollados, la producción de animales, generalmente, forma parte de las explotaciones agrícolas, en estrecha unión con los restantes componentes de la explotación (producción forrajera, instalaciones, mano de obra, etc.). En la mayoría de los casos, la ganadería tiene como objeto la transformación de productos vegetales, o subproductos industriales, en productos animales: los animales se dividen en los que pueden consumir vegetales celulósicos espontáneos o cultivados gracias a los microorganismos que se encuentran en su conducto digestivo (caballos, rumiantes, conejos) y los que sólo consumen alimentos con un porcentaje más reducido de materias celulósicas, como el grano (cerdo y aves de corral).

En algunos países, la ganadería evoluciona cada vez más hacia formas industriales. Aunque esta última tendencia se manifiesta en casi todas las especies, se ha llegado a comprender que las estructuras artesanales de producción, del tipo de la explotación familiar, pueden resultar tan eficaces como las estructuras industriales, a condición de que estén bien dirigidas y que se sitúen en un entorno muy estructurado en lo que concierne especialmente a aprovisionamiento y desarrollo (cooperativas, grupos de productores, etc.).

El mal de las «vacas locas»

Desde mediados de la década de los ochenta del siglo XX, el territorio europeo es escenario de una catástrofe de dimensiones aún por definir, que afecta sobre todo al ganado vacuno. La encefalopatía espongiforme bovina (EEB) se ha propagado vertiginosamente. En Inglaterra, país más afectado, se han tenido que sacrificar decenas de miles de cabezas. España, Francia y Alemania han dado ya la voz de alarma al detectar nuevos casos en sus territorios. La mayor gravedad radica en que es una enfermedad transmisible al hombre a través de la ingestión de tejidos infectados (óseos o carnicos). En la Unión Europea se está manifestando una situación de creciente preocupación al confirmarse la aparición de casos de la variante humana de la encefalopatía espongiforme bovina, la enfermedad de Creutzfeld-Jacob.

El fenómeno neurodegenerativo denominado, en una acepción general, como encefalopatías espongiformes transmisibles es conocido desde hace tiempo. El nombre proviene de las observaciones al microscopio que permiten ver el cerebro infectado lleno de poros, como si fuera una esponja. Estas enfermedades provocan un fallo en el control motor, seguido, en general, por demencia, a veces por parálisis y, finalmente, la muerte. La referencia más temprana se tiene en 1732, cuando se describieron los síntomas en ovejas.

En esta especie animal y en la cabra, la encefalopatía se denomina scrapie o tembladera, pero no fue hasta dos siglos más tarde, en 1938, cuando se demostró que era una enfermedad transmisible. Existen enfermedades neurodegenerativas similares en diversas especies animales, tales como ciervo, alce, visón, felinos y bovinos. En este último caso recibe el nombre de encefalopatía esoongiforme bovina (EEB). En humanos, la enfermedad de Creutzfeldt-Jakob fue ‘dentificada en 1920, aunque no se asoció al scrapie hasta 1950.

¿ Cómo se transmite la encefalopatía espogiforme bovina?

El periodo de incubación es variable, en general, entre tres y cinco años, aunque Puede ser superior. La vaca cuando enferma, parece nerviosa, pierde peso, tiene dificultades para andar y la producción de leche desciende. La procedencia de la enfermedad en las reses es todavía objeto de debate. Parece ser que la forma bovina tiene su origen en el scrapie de las ovejas. Estudios epidemiológicos indican que son fuente de contaminación ha sido la utilización de carcasas de animales contaminaos (vacas y ovejas) para fabricar piensos para el ganado vacuno. Se cree que la enfermedad ha derivado de la inclusión de material bovino contaminado en la fabricación de los piensos, que se produjo entre 1978 y 1980.

El rápido incremento de los enfermedad a mediados de los noventa (850 casos por semana en 1994) se debe probablemente a la inclusión de animales enfermos, no diagnosticados como tales, la fabricación de piensos para consumo bovino. Esta práctica se prohibió en julio 1988 en el Reino Unido pero la materia prima siguió exportándose. La mayor parte de los casos descritos en países europeos tiene su origen en animales exportados Reino Unido o alimentados con harina de dicha procedencia.

En estos momentos, la incidencia de la EE. UU. en el conjunto de la Unión Europea está disminuyendo. En el Reino Unido se ha producido un descenso del 40 en el número de casos descritos en el 2000 respecto a 1999 (1.136 casos), val• que debe compararse con los 36.000 casos descritos en 1992, el año de mayor incidencia. La medida comunitaria que obliga desde el 1 de enero del 2001 a la realización de un test post mortem para descartar el mal en todos los bovinos de m de 30 meses que vayan a entrar en la cadena alimentaria, producirá, sin duda, u aumento del número de animales enfermos detectados. Con todo, los casos positivos corresponden, cada vez más, a animales de mayor edad, lo cual es un buen síntoma, ya que puede presuponerse que la mayoría han nacido, y probablemente si han sido infectados, antes de la crisis de marzo de 1996 (cuando se detectó nueva variante de la enfermedad de Creutzfeldt-Jakob en la especie humana, as ciada al consumo de carne de reses afectadas>. Debido a que el periodo de incubación en las vacas es de 3-5 años, con cierta variación, la eficacia de las medida adoptadas sólo podrá ser valorada totalmente en los años 2004-2005.

Medidas para controlar el mal de las «vacas locas» en la Unión Europea

Los expertos afirman que la enfermedad puede erradicarse con la normativa en vigencia pero que para ello resulta imprescindible que los países extremen el celo para garantizar los controles del ganado y la exclusión de las harinas de origen animal en su alimentación. La medidas adoptadas por la Unión Europea para frenar la expansión d la epidemia son:

— En julio de 1994 se prohibió el uso de harinas de carnes y huesos de mamíferos para la fabricación de alimentos para rumiantes. La prohibición se convirtió en total (para todo el ganado) a partir del 1 de enero del 2001.

— Se introdujeron medidas más eficaces para tratar los despojos de animal contaminados, con el fin de reducir la capacidad infecciosa al mínimo (a partir de abril de 1997).

— Se adoptaron medidas de vigilancia activa para la detección, control y erradicación de la EEB a partir de mayo de 1998, que se complementaron a partir del. de enero del 2001 con la obligatoriedad de analizar todas las reses de más de meses de edad antes de su introducción en el mercado para consumo human

— Se obligó a la eliminación de los restos animales considerados de riesgo dula espinal, cerebro, ojos y amígdalas) de ternera, oveja y cabra en toda la a partir de octubre del 2000, a los que se añadió el intestino a partir de diciembre del mismo año. Dichos restos no pueden ser usados para el consumo de humanos ni para el de animales. Precisamente, se ha comprobado que las partes señaladas, las cuales habían sido ya descartadas en varios países miembros con anterioridad, son responsables de la infección en un 95% de los casos. Sin embargo, el desbloqueo a las propuestas de la Comisión Europea en algunos países no se ha producido hasta muy recientemente, tras la aparición de casos de EEB en países como Alemania y España.

— Se prohibió el uso de animales no aptos para el consumo humano en la fabricación de piensos a partir de marzo de 2001.

Aparte de éstas, algunos países, especialmente aquellos que tienen una mayor incidencia de la enfermedad, han adoptado otras medidas específicas. Es de destacar que todas las decisiones comunitarias sobre este tema están basadas en la evaluación y asesoramiento científico y se revisan de forma continua para actualizarlas en función de la nueva información científica. Por su parte, la Comisión Europea realiza inspecciones en los países miembros para verificar la correcta aplicación de las normas.

En definitiva, las medidas adoptadas han consistido en eliminar de la cadena alimentaria (humana y animal> todas las partes del ganado susceptibles de ser vehículos de alto riesgo de contaminación, es decir, médula espinal, cerebro, ojos, amígdalas e intestinos. Se consideran tejidos con un cierto riesgo de infección las vísceras (riñones, hígado, pulmón, páncreas, nódulos linfáticos y placenta).

El comité de científicos de la Comisión Europea ha valorado la inclusión de los chuletones, ya que en principio pueden ser considerados alimentos de riesgo, si no han sido bien cortados, por su cercanía a la espina dorsal. Los bistés se consideran seguros, aunque se puede incrementar la seguridad si se eliminan los nervios y el tejido linfático de la carne. La leche y sus derivados, el sebo y la gelatina son considerados seguros. Entre los materiales no alimentarios susceptibles de suponer algún limitado riesgo de transmisión, están las vacunas (humanas y veterinarias) y los cosméticos preparados con material bovino.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)

Vaca Que Da leche Maternizada Rosita Primer Bovino Clonado en el Mundo

Vaca Rosita Que Da Leche Maternizada

La tecnología utilizada para obtener la vaca clonada surge de una Resolución del Ministerio de Agricultura nacional, con el visto bueno de la CONABIA. Rosita vaca clonada por científicos argentinos con genes bovinos y humanos, y ahora comenzó a producir leche similar a la materna con el fin de contribuir en la lucha contra la mortalidad infantil.

La lactancia materna  es una  de las formas mas eficaces de asegurar la salud de los niños.  leche humana tiene más de 370 componentes específicos que inmunizan al bebe tanto de enfermedades inmediatas como futuras, y se está tratando de concientizar a la población de la importancia del amamantamiento de los bebes, ya que se podría evitar mas de 1.000.000 de muertes al año. El mejor alimento para el recién nacido es la leche materna y se lo debe amamantar hasta los 6 meses de edad.

Rosita ISA, nació en abril de 2011 y es el primer bovino bi-trans-génico en el mundo capaz de producir leche maternizada. Un logro producto del trabajo del INTA junto con la Universidad Nacional de San Martín. La ternera clonada nació en el primer cuatrimestre de 2011 y tiene un perfecto estado de salud. «Hemos cumplido con todos los requerimientos relacionados con su crianza artificial, su calendario sanitario y las disposiciones de la Comisión Nacional de Biotecnología Agropecuaria (CONABIA)», afirmaron los técnicos.

Es una manera de contribuir con la lucha contra la mortalidad infantil, ya que una proteína permite evitar enfermedades infecciosas del aparato digestivo y la otra asimilar el hierro, es decir, evitar la anemia en los niños recién nacidos

Rosita ISA -llamada así por el acrónimo compuesto por la «I» de INTA y la «SA» de San Martines el primer bovino nacido en el mundo al que se le incorporaron dos genes humanos que codifican dos proteínas presentes en la leche humana. Los investigadores indicaron en junio de 2012, por métodos de Biología Molecular, que la lisozima y lactoferrina humanas se encuentran en la leche de Rosita ISA. Hoy día, el INTA y la UNSAM muestran al mundo el primer bovino del mundo que, efectivamente, produce leche maternizada. Un logro maravilloso.

LA CURA DE ENFERMEDADES  OTRAS ENFERMEDADES
Los primeros medicamentos transgénicos ya llegaron:
Las vacas transgénicas argentinas del laboratorio BioSidus no son los únicos mamíferos utilizados a nivel mundial para producir en su leche proteínas terapéuticas; o sea, moléculas que curan enfermedades humanas.

Este tipo de desarrollo tecnológico se realiza esencialmente en otros tres países: Estados Unidos, Francia y Holanda. En Francia, la empresa biotecnología Bioprotein cría conejas modificadas genéticamente para que produzcan en su leche proteínas llamadas recombinantes, utilizadas en la lucha contra tumores.

En Holanda, Pharming Group utiliza, al igual que BioSidus, la vaca como «biorreactor» para producir medicamentos humanos. El laboratorio estadounidense Genzyme Transgenic Corporation hizo otra apuesta, al modificar cabras que producen en su leche una proteína humana, llamada Atryn.

Esta molécula es usada para combatir una enfermedad genética poco común, que disminuye la fluidez de la sangre generando accidentes cardiovasculares que pueden ser fatales. En 2006, esta molécula producida por cabras obtuvo, por parte de la máxima autoridad europea la autorización de comercialización en todos los países de la Unión Europea, determinando de este modo que no existen riesgos para el hombre con la utilización de moléculas producidas por mamíferos modificados genéticamente. Con este antecedente, es probable que los medicamentos producidos por las vacas argentinas tengan un gran futuro en el escenario mundial.

Fuente Consultada: Diario Digital «La Nación»  y Revista «El Federal»

Linneo Carl Vida y Obra Cientifica Clasificación del Reino Vegetal

Vida de Linneo Carl Vida y Obra Científica

Necesario es decir que Linneo fue un muchacho muy poco común: a los quince años pasaba jornadas enteras encerrado en su habitación, dedicado a contemplar las flores y los insectos que recogía en el jardín de su casa.

«¡Un día de éstos te tiraré todas estas suciedades que recoges por todas partes!», solía decirle su padre, Nils Linné, que era clérigo, tratando de mostrarse serio e indignado. Pero sabía muy bien que jamás tendría el valor necesario para hacer una cosa semejante.

En el fondo, no le desagradaba lo más mínimo el interés que su hijo manifestaba por la naturaleza. Solamente le molestaba, y mucho, que por culpa de las flores y los insectos su hijo Carlos descuidase sus estudios.

Consideraba que contaba ya una edad en la que hubiera sido oportuno que eligiese la profesión a la cual habría de dedicarse durante su vida, de manera de asegurar su porvenir; y pensaba que muy bien podía consagrar el tiempo libre a la tarea de coleccionar flores e insectos. Pero el joven no participaba en modo alguno de estas ideas: por el contrario, todo parecía señalarlo como decidido con toda firmeza a dedicarse tan sólo a las ciencias naturales.

linneo, botanico

Sin embargo, y para proporcionar una satisfacción a su padre, en 1728 se inscribió en la Facultad de Medicina de la Universidad de Upsala. Pero de ninguna manera abandonó sus estudios predilectos: comenzó a concurrir con asiduidad a las lecciones del profesor Rudbeck, quien enseñaba botánica en aquella universidad, y continuó sus observaciones sobre las flores y los insectos.

Y he aquí los primeros resultados de sus estudios: en 1729 logró individualizar los órganos reproductivos de las flores (los estambres y los pistilos). Tal descubrimiento le valió la admiración del profesor Rudbeck, quien lo nombró su asistente. Al año siguiente, el joven Linneo fue invitado a dictar lecciones de botánica en la misma universidad en la que se hallaba inscripto como estudiante de medicina.

En 1732, en un viaje costeado por la Academia de Ciencias de Upsala, Linneo fue enviado a Laponia para estudiar la vegetación de aquellas frías regiones. Como fruto de tales estudios, Linneo publicó una interesantísima obra: «La flora lapona».

Durante el tiempo transcurrido en estos trabajos no había, sin embargo, abandonado sus estudios de medicina, y así, en 1735, obtuvo su graduación como médico. Pero en lugar de ejercer la profesión de médico decidió dedicarse con un empeño aún mayor a las ciencias naturales.

Linneo consideró que hasta entonces las plantas habían sido objeto de una descripción defectuosa. Las decenas de millares de especies que los estudiosos precedentes habían creído descubrir representaban un número exagerado. Muchas de ellas presentaban aspectos completamente semejantes entre sí, hasta el punto de que podían ser reunidas en una especie única. En suma: Linneo se propuso, finalmente, poner un poco de orden en la clasificación del inmenso reino de los vegetales.

El mismo año en que se recibió de médico, Linneo publicó su famoso «Systema naturae». Con esta obra propuso una original clasificación de las plantas. No se limitó, solamente, a dividirlas en especies, sino que, de acuerdo con las características que tenían en común, las reagrupó en géneros (reunión de especies), familias (reunión de géneros), órdenes (reunión de familias) y clases (reunión de órdenes).

A esta obra le siguieron en poco tiempo otros tres estudios importantes: los «Fundamentos de la botánica» (1736), los «Géneros de las plantas» (1737) y las «Especies de las plantas» (1738).

Contando apenas treinta años, Linneo había conquistado ya fama de sabio eminente. Comenzaron entonces a llegarle de toda Europa reconocimientos de su valor científico y honrosas distinciones.

En 1739 fue nombrado presidente de la Academia de Ciencias de Estocolmo, y dos años más tarde obtuvo la cátedra de botánica en la Universidad de Upsala.

Mientras tanto, Linneo había extendido el campo de sus estudios e investigaciones también al reino animal y, basándose en el sistema ideado para el estudio de las plantas, había propuesto una nueva clasificación para los animales. Describió 4.400 especies de animales y las distribuyó en seis clases: Mamíferos, Aves, Anfibios, Peces, Insectos y Vermes.

En 1753, Linneo tuvo otra idea genial: propuso hacer preceder el nombre del correspondiente género animal o vegetal al de la especie respectiva (por ejemplo: género: prímula; especie: vulgaris). Este método, que es conocido con el nombre de nomenclatura binominal (del latín «bis«, dos, y «nomen«, nombre), proporcionó la posibilidad de ordenar sistemáticamente el ingente número de especies vegetales y animales entonces conocidas.

Linneo no tenía deseos dé abandonar su tierra natal, donde su talento científico había tenido tan amplia oportunidad de manifestarse, y, a pesar de las invitaciones recibidas, continuó su enseñanza en la Universidad de Upsala.

Hacia el último período de su existencia, Linneo pasaba gran parte del año en su posesión campestre de Hammarby, donde había ordenado una maravillosa colección de plantas y animales.

El brillante sabio sueco falleció en Upsala el 10 de enero de 1778, a los 71 años de edad (había nacido en Rashult, provincia de Smalanó, el 13 de mayo de 1707). Le fueron tributados honores solemnes. El rey de Suecia dispuso que fuese sepultado en la catedral de Upsala, donde se le erigió un mausoleo. Justo reconocimiento a quien puede ser considerado como el fundador de la moderna botánica.

ALGO MAS SOBRE SU VIDA Y OBRA…

FUNDADOR DE LA MODERNA BOTÁNICA
Necesario es decir que Linneo fue un muchacho muy poco común: a los quince años pasaba jornadas enteras encerrado en su habitación, dedicado a contemplar las flores y los insectos que recogía en el jardín de su casa.

«¡Un día de éstos te tiraré todas estas suciedades que recoges por todas partes!», solía decirle su padre, Nils Linné, que era clérigo, tratando de mostrarse serio e indignado. Pero sabía muy bien que jamás tendría el valor necesario para hacer una cosa semejante.

En el fondo, no le desagradaba lo más mínimo el interés que su hijo manifestaba por la naturaleza. Solamente le molestaba, y mucho, que por culpa de las flores y los insectos su hijo Carlos descuidase sus estudios.

Consideraba que contaba ya una edad en la que hubiera sido oportuno que eligiese la profesión a la cual habría de dedicarse durante su vida, de manera de asegurar su porvenir; y pensaba que muy bien podía consagrar el tiempo libre a la tarea de coleccionar flores e insectos. Pero el joven no participaba en modo alguno de estas ideas: por el contrario, todo parecía señalarlo como decidido con toda firmeza a dedicarse tan sólo a las ciencias naturales.

Sin embargo, y para proporcionar una satisfacción a su padre, en 1728 se inscribió en la Facultad de Medicina de la Universidad de Upsala.

Pero de ninguna manera abandonó sus estudios predilectos: comenzó a concurrir con asiduidad a las lecciones del profesor Rudbeck, quien enseñaba botánica en aquella universidad, y continuó sus observaciones sobre las flores y los insectos. Y he aquí los primeros resultados de sus estudios: en 1729 logró individualizar los órganos reproductivos de las flores (los estambres y los pistilos).

Tal descubrimiento le valió la admiración del profesor Rudbeck, quien lo nombró su asistente. Al año siguiente, el joven Linneo fue invitado a dictar lecciones de botánica en la misma universidad en la que se hallaba inscripto como estudiante de medicina.

En 1732, en un viaje costeado por la Academia de Ciencias de Upsala, Linneo fue enviado a Lapoñia para estudiar la vegetación de aquellas frías regiones. Como fruto de tales estudios, Linneo publicó una interesantísima obra: -«La flora lapona». Durante el tiempo transcurrido en estos trabajos no había, sin embargo, abandonado sus estudios de medicina, y así, en 1735, obtuvo su graduación como médico. Pero en lugar de ejercer la’ profesión de médico decidió dedicarse con un empeño aún mayor a las ciencias naturales.

Linneo consideró que hasta entonces las plantas habían sido objeto de una descripción defectuosa. Las decenas de millares de especies que los estudiosos precedentes habían creído descubrir representaban un número exagerado.

Muchas de ellas presentaban aspectos completamente semejantes entre sí, hasta el punto de que podían ser reunidas en una especie única. En suma: Linneo se propuso, finalmente, poner un poco de orden en la clasificación del inmenso reino de los vegetales.

El mismo año en que se recibió de médico, Linneo publicó su famoso «Systema naturae». Con esta obra propuso una original clasificación de las plantas. No se limitó, solamente, a dividirlas en especies, sino que, de acuerdo con las características que tenían en común, las reagrupó en géneros (reunión de especies), familias (reunión de géneros), órdenes (reunión de familias) y clases   (reunión de órdenes).

A esta obra le siguieron en poco tiempo otros tres estudios importantes: los «Fundamentos de la botánica» (1736), los «Géneros de las plantas»  (1737) y las «Especies de las plantas»  (1738).

Contando apenas treinta años, Linneo había conquistado ya fama de sabio eminente. Comenzaron entonces a llegarle de toda Europa reconocimientos de su valor científico y honrosas distinciones.
En 1739 fue nombrado presidente de la Academia de Ciencias de Estocolmo, y dos años más tarde obtuvo la cátedra de botánica en la Universidad de Upsala.

Mientras tanto, Linneo había extendido el campo de sus estudios e investigaciones también al reino animal y, basándose en el sistema ideado para el estudio de las plantas, había propuesto una nueva clasificación para los animales. Describió 4.400 especies de animales y las distribuyó en seis clases: Mamíferos, Aves, Anfibios,  Peces,  Insectos y Vermes.

En 1753, Linneo tuvo otra idea genial: propuso hacer preceder el nombre del correspondiente género animal o vegetal al de la especie respectiva (por ejemplo: género: prímula; especie: vulgaris). Este método, que es conocido con el nombre de nomenclatura binominal (del latín «bis», dos, y «nomen», nombre), proporcionó la posibilidad de ordenar sistemáticamente el ingente número de especies vegetales y animales entonces conocidas.

Linneo no tenía deseos de abandonar su tierra natal, donde su talento científico había tenido tan amplia oportunidad de manifestarse, y, a pesar de las invitaciones recibidas, continuó su enseñanza en la Universidad de Upsala.

Hacia el último período de su existencia, Linneo pasaba gran parte del año en su posesión campestre de Hammarby, donde había ordenado una maravillosa colección de plantas y animales.

El brillante sabio sueco falleció en Upsala el 10 de enero de 1778, a los 71 años de edad (había nacido en Rashult, provincia de Smalanó, el 13 de mayo de 1707).

Le fueron tributados honores solemnes. El rey de Suecia dispuso que fuese sepultado en la catedral de Upsala, donde se le erigió un mausoleo. Justo reconocimiento a quien puede ser considerado como el fundador de la moderna botánica.

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología N°10

Bomba Atomica Perdida Accidente Aereo Pierde Una Bomba Atomica

La Bomba Atómica Perdida

BOMBA ATÓMICA PERDIDA: A primera hora de la mañana del 5 de febrero de 1958, un bombardero B-47 despegó de la base de las Fuerzas Aéreas de Homestead, Florida, llevando una bomba termonuclear Mark 215, de tres toneladas y media, con más de dos toneladas de explosivo convencional, una cabeza nuclear de uranio y una cápsula nuclear extraíble consistente en un detonador de plutonio.

Esta bomba era cien veces mas potente que la que las USAAF lanzaron sobre Hiroshima trece años antes; era capaz de exterminar inmensas áreas del este de América y provocar un tsunami que habría llegado hasta Nueva York.

No mucho después de despegar, a las 3.30 de la madrugada, el bombardero colisionó con un F-86 cuyo piloto saltó antes de que los aviones chocaran. La tripulación del bombardero trató de controlar el B-47, aunque éste había sufrido serios daños y había fuego en su interior.

El avión fue a aterrizar directamente al campo de aviaciónHunter Army, en las afueras de Savannah, a poco más de dieciséis kilómetros. Alcanzó la pista, pero un fallo mecánico impidió que pudiera reducir la velocidad para efectuar un aterrizaje seguro.

Entonces, se le ordenó que se alzara de nuevo y que se deshiciera de la carga explosiva a unos dos kilómetros y medio más allá, en una zona donde no peligraran vidas humanas, para después volver a la base e intentar aterrizar de nuevo. La tripulación obedeció las órdenes y lanzó los dispositivos cerca de la desembocadura del río Savannah.

El incidente puso a Washington en un enorme aprieto, pues el Pentágono quería evitar la consiguiente consternación pública resultante del hecho de que hubieran soltado una bomba nuclear en territorio propio.

Tras el silencio inicial del Departamento de Defensa estadounidense, que duró unos cuantos días, el comunicado decía que se había arrojado en una zona «una porción de arma nuclear», pero que no había riesgo para la población porque el arma estaba «descargada».

De todos modos, cuando las cosas se calmaron, e independientemente de si la bomba estaba o no cargada, resultó imposible recuperarla.

Hasta nuestros días el Pentágono sigue afirmando que no hay problemas porque el artefacto está desactivado, pero algunos soldados encargados de cargar la bomba al avión relataron todo lo contrario, frente a la negación de las autoridades militares. Hasta el misterio continua, y la bomba sigue extraviada.

https://historiaybiografias.com/linea_divisoria5.jpg

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española, «es una mezcla de cosas de distinto origen o tipo», y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas ,pero interesantes como para ampliar nuestra cultura general.

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik
El Jardín de Newton – José M. Sánchez Ron
Lo Que Oculta La Historia – Ed Rayner y Ron Stapley

Microscopio Forma de Uso Manejo Nombre de las Partes Instrucciones

Microscopio: Forma de Uso, Partes, Instrucciones

Este aparato nos permite ver los objetos con 100 o 200 aumentos más que la lente, pero su empleo no resulta nada sencillo. En una palabra: enseña más que aquélla, pero es también mucho más exigente. Aun para realizar con él las operaciones menos complicadas, es necesario poseer un auténtico «laboratorio» en miniatura.

Además, el nuevo instrumento es poco manejable y no puede llevarse encima durante las excursiones por el campo. Esto significa que el microscopio, a pesar de ser más potente y perfecto, nunca sustituirá por completo a nuestra vieja, fiel y manejable amiga, la lente, que continuará a nuestro lado y nos será de gran utilidad para echar un primer vistazo de «tanteo» al material que luego examinaremos más cuidadosamente en el «laboratorio».

EL MICROSCOPIO
Para la observación de la célula y de los tejidos, es imprescindible el uso del microscopio, ya que en su gran mayoría las células no son visibles a simple vista porque miden micrones (1 micrón = milésima parte de un milímetro). Este aparato, insustituible en cualquier investigación científica, fue ideado y construido en el siglo XVII por el holandés Antón van Leeuwenhoek (1632-1723), siendo constantemente perfeccionado por su continua utilidad, hasta llegar al poderoso microscopio electrónico que hoy se utiliza.

Microscopio Forma de Uso Manejo


La construcción de este aparato está basada en un fenómeno físico que es la refracción de la luz. Consta de dos partes: una mecánica y otra óptica.

Parte mecánica
Está formada por un pie o soporte, que sirve para la estabilidad del aparato; por la platina, que es una pieza movible por dos tornillos laterales, donde se coloca la preparación microscópica, que se fija mediante dos pinzas o resortes y que posee un orificio circular en el centro por donde pasa la luz que ilumina la preparación; y por el brazo o columna, que es articulado y sirve para inclinar el microscopio o para trasportarlo.

Parte óptica:

Consta de dos partes principales (ocular y objetivo) y de partes accesorias (espejo, condensador, diafragma, tornillos micrométricos y tornillos micrométricos).

El ocular es el lugar por donde se mira y está formado por dos lentes ubicados en el extremo superior del tubo óptico.

El objetivo es también un sistema de lentes ubicado en el extremo inferior del tubo. Cada microscopio suele tener varios objetivos con lentes de distintos aumentos, que se disponen sobre una pieza giratoria llamada revólver.
Et espejo es móvil y está situado debajo de la platina, tiene una cara cóncava (que se utiliza si se trabaja con luz artificial) y una cara plana (que se utiliza si se trabaja con luz natural). Este espejo se adapta a la luz y la refleja hacia el objeto que se observa.

El diafragma, colocado entre la platina y el espejo, gradúa la cantidad de luz que ilumina el objeto.
El condensador es un lente que concentra la luz sobre el preparado.

Los tornillos micrométricos y micrométricos sirven para acercar o alejar el tubo óptico del preparado, para su perfecto enfoque. El primero es de movimientos más rápidos, y el segundo, más sensible, es de movimientos lentos.

EL LABORATORIO – Si deseamos trabajar de manera tranquila y eficaz, conviene que reservemos un rincón de la casa situado junto a una ventana (de ser posible no orientada al Norte) y cerca de un enchufe.

Para amueblar nuestro laboratorio de investigación necesitaremos una mesa muy estable, con la superficie de cristal (o cubierta, en caso contrario, por una o dos gruesas láminas de plástico), una silla o un taburete de cierta altura, una estantería, una lámpara eléctrica de mesa, protegida por una pantalla de cristal esmerilado, y un cubo de plástico o metal para los desechos.

LA ELECCIÓN DEL MICROSCOPIO – Es muy difícil dar consejos sobre el tipo de microscopio que conviene adquirir. Existen cientos de modelos, desde los que pueden comprarse por relativamente poco dinero, hasta los que cuestan enormes cantidades. El tipo más sencillo tiene un ocular y un objetivo; el más complejo, dos oculares (gracias a lo cual se puede mirar con los dos ojos al mismo tiempo), cinco o seis objetivos rápidamente intercambiables, un espejo para condensar la luz sobre el objeto, varios filtros de colores, un foco de luz incorporado y otros muchos adminículos.

Como regla general podemos afirmar que, sin necesidad de salimos de los límites de nuestras posibilidades económicas, siempre resulta preferible gastar un poco más de lo previsto y adquirir un instrumento de marca con un eficaz juego de lentes.

A igualdad de precio, es mejor comprar un buen microscopio usado que uno nuevo de peor calidad; a condición, naturalmente, de que el usado, sometido al examen de un óptico de confianza, no revele imperfecciones Mecánicas u ópticas que dificulten su empleo.

MANEJO DEL MICROSCOPIO
1° Se coloca la preparación sobre el orificio de la platina y se fija con los resortes.

2″ Se hace girar el espejo hasta que la luz incida sobre la preparación.

3° Se baja el tubo óptico por medio del tornillo macrométrico hasta que toque levemente la preparación.

4° Se mira por el ocular con el ojo izquierdo, tratando de mantener el ojo derecho abierto, y con el tornillo macrométrico se va subiendo poco a poco e! tubo óptico hasta que se observe la preparación lo más clara posible.

5° Con leves movimientos de! tornillo micrométrico se obtiene una imagen nítida del objeto.

OTROS ELEMENTOS NECESARIOS
Lupa. Es un lente de aumento más gruesa en el centro que en los bordes, montada sobre un pie o soporte, o sobre un aro provisto de un mango. Sirve para observar piezas pequeñas pero macroscópicas, es decir, visibles a simple vista, porque posee muy poco aumento.

Portaobjetos (Fig. B). Son laminillas rectangulares de vidrio, de 8 cm de largo por 2 cm de ancho, donde se colocan los preparados.

Cubreobjetos (Fig. C). Son laminillas cuadradas o circulares de vidrio muy delgado, que sirven para cubrir las preparaciones microscópicas.

Tipos de microscopios: Además del microscopio tradicional, que es el descrito anteriormente, existen otros dos más sofisticados que han ido evolucionando en las últimas décadas.

Si bien en los microscopios clásicos la imagen a observar se forma de una vez, en los métodos más modernos la imagen se va obteniendo punto a punto al hacer nadir un delgado haz del iluminante que va explorando poco a poco la preparación. Es lo que se denomina barrido o scanning. La señal que la preparación transmite o refleja se dirige a un detector que la convierte en imagen visible a través de un sistema de vídeo o televisión o, más modernamente, de ordenador. Ejemplos de estos microscopios son el de rayos X y el acústico. Ambos se describen brevemente a continuación.

El microscopio de rayos X se basa en el hecho de que al disminuidla longitud de onda de la radiación incidente aumenta el poder resolutivo del aparato. Existe, sin embargo, una dificultad, y es que la mayor parte de los materiales presentan para los rayos X un índice de refracción ligeramente inferior a la unidad, con lo cual no se puede en fabricar lentes convergentes capaces de focalizarlos.

La solución está en operar por reflexión y por difracción, pero para ello es necesario disponer de una fuente de rayos X lo más puntual, monocromática y intensa posible.

El microscopio acústico funciona como uno óptico pero con ondas ultra-acústicas (se llega a secuencias de 5 GHz). La venta de este equipo radica en que las ondas acústicas penetran fácilmente en materiales opacos a otras radiaciones; por ello es especialmente útil en microelectrónica, por ejemplo, para poder observar en profundidad circuitos electrónicos sin dañarlos. La información que proporciona este tipo de microscopios no la proporciona ningún otro aparato óptico.

ACTUALMENTE SIGLO XXI: En el transcurso del siglo XX, las técnicas microscópicas han evolucionado considerablemente: de la lupa usual, con menos de 10 aumentos, se ha pasado al microscopio de efecto túnel, que permite ver —o, mejor, «palpar»— los átomos (a la escala de la diez mil millonésima de metro), pasando por los microscopios ópticos, los mejores de los cuales no superan los 2.000 aumentos, y los microscopios electrónicos, con 500.000 aumentos.

Microscopio óptico. Consta de un objetivo y un ocular. El primero está formado por un conjunto de pequeñas lentes, de distancia focal muy corta, que da una imagen real aumentada de un pequeño objeto situado muy cerca del foco. El ocular, a menudo constituido por dos lentes convergentes, funciona como una lupa y da una imagen virtual aumentada de la imagen suministrada por el objetivo. La distancia del objetivo al ocular es invariable.

Microscopio electrónico. La imagen aumentada de un objetivo se obtiene utilizando su interacción con los electrones. Los trabajos de L. de Broglie demostraron que, al igual que la luz posee un carácter corpuscular, las partículas como los electrones pueden manifestar propiedades ondulatorias. La longitud de onda asociada a un haz de electrones es del mismo orden de magnitud que la de los rayos X. Además, dado que, a diferencia de estos últimos, los electrones poseen carga eléctrica, es posible desviarlos y focalizarlos por medio de «lentes» magnéticas o electrostáticas.

Microscopio de transmisión. Está formado por un cañón de electrones obtenidos ya sea calentando un filamento ya sea por medio de una fina punta metálica sometida a un campo eléctrico; una vez acelerados con uno o varios ánodos llevados a potenciales adecuados, los electrones atraviesan una serie de «lentes» formadas por electroimanes atravesados por un canal cuyo eje es el del microscopio.

Microscopio de emisión. Este instrumento existe en dos versiones. En la primera, el objeto, situado en el seno de un campo electrostático, recibe un haz de electrones, de iones o de fotones y emite electrones secundarios, que son acelerados. Un objetivo, llamado «de inmersión», da una imagen aumentada de la superficie del objeto. En la segunda versión (microscopiode barrido), se focaliza un fino pincel de electrones sobre una muestra. La corriente de electrones secundarios creada es recogida por un conjunto fotomultiplicador. Se pueden observar así, en un monitor, superficies biológicas, defectos superficiales de metales, etc.

Microscopio de efecto túnel. De micros copio sólo tiene el nombre, ya que su fundamento estriba en controlar, con una precisión de 10 nanómetros, la posición de una micro-sonda que se mueve por encima de la superficie estudiada. A distancias de este orden, los electrones pueden atravesar el intervalo entre la capa atómica superficial y la sonda, pero no pueden ascender desde la capa subyacente. Se obtiene así una imagen de la superficie del objeto a escala atómica.

UN POCO DE HISTORIA…

A finales del siglo XVIII, el diseño de los microscopios había avanzado tanto, que casi se alcanzaron los límites teóricos del poder separador utilizando luz visible.

Sin embargo, se han hecho otros inventos desde entonces. Por ejemplo, en la mayoría de los microscopios la imagen sólo se puede ver con un ojo. Ello está bien para períodos cortos de tiempo, pero es incómodo cuando el microscopio’ se utiliza constantemente. Ahora existen microscopios binoculares, en los que el camino de la luz está dividido de tal forma que la imagen se puede ver con los dos ojos. Otros microscopios proyectan la imagen sobre una pantalla, para que se pueda ver más fácilmente.

En la práctica, los microscopios luminosos son idóneos para la mayoría de los fines, aunque no cuando se quieren observar pequeños detalles. Se pueden lograr mejores resultados en el poder separador, utilizando radiaciones de menor longitud de onda, como en el moderno microscopio de luz ultravioleta. Como su nombre indica, este instrumento utiliza luz ultravioleta (que es similar a la luz visible, pero de menor longitud de onda).

El cristal de las lentes utilizadas con luz visible no es el adecuado para la luz ultravioleta, que no pasaría por ellas. Se las reemplaza por lentes de cristal de cuarzo. Como la luz ultravioleta es invisible, se utilizan dispositivos «especiales para hacer la imagen visible. La imagen se enfoca sobre una pantalla fluorescente, que reluce cuando recibe la radiación.

El microscopio de luz ultravioleta supuso un gran adelanto sobre los anteriores, pero ha sido mejorado por el microscopio electrónico, que es el instrumento más moderno y avanzado, y de mayor poder separador, actualmente en uso. El obstáculo, en este caso, radica en que, aunque en principio es un instrumento muy simple, en la práctica constituye un equipo extremadamente complicado, lo que hace que su precio sea muy elevado. Los microscopios comunes tienen un precio más económico.

Fue posible realizar el microscopio electrónico luego de la invención del tubo de rayos catódicos, a principios del siglo XX. El tubo de rayos catódicos es un tubo revestido con material fluorescente en uno de sus extremos, que constituye la pantalla. En el otro extremo, se encuentra el cátodo, al que se calienta para que libere electrones. Frente al cátodo se encuentra el ánodo. Los electrones surgen del cátodo por la diferencia de potencial entre él y el ánodo. Se aceleran en el espacio entre cátodo y ánodo, y pasan a través de un orificio del ánodo para incidir sobre la pantalla. Un objeto colocado a su paso motiva una sombra sobre la pantalla.

Estos electrones se comportan como si constituyesen un tipo de radiación de longitud de onda muy pequeña y, en consecuencia, se pueden utilizar para obtener grandes aumentos (es decir, con gran poder separador).

El sistema de lentes es parecido al que se utiliza en el microscopio compuesto de luz visible. Los electrones pueden ser desviados de su camino por campos magnéticos. Lentes magnéticas circulares se utilizan para enfocar los haces de electrones, de la misma forma que se emplean las lentes de cristal para enfocar los rayos de luz. Las muestras utilizadas se colocan sobre láminas muy delgadas. Las partes opacas de la muestra proyectan sombra sobre la pantalla o sobre una película fotográfica, con lo que se obtiene la denominada micrografía electrónica. Muchos microscopios electrónicos aumentan los objetos más de 200.000 veces.

Es posible mejorar el poder separador o resolutivo del microscopio electrónico, utilizando electrones de movimiento más rápido y longitud de onda más pequeña. El perfeccionamiento del microscopio electrónico constituye aún materia de investigación. La mayoría de los microscopios luminosos y electrónicos hace pasar un haz de la radiación a través de un objeto, con lo que se puede observar su sombra.

En un nuevo tipo de microscopio, el microscopio de emisión de campo, se hace emitir al objeto su propia radiación: el objeto emite un flujo de electrones, que surgen de él, al aplicar un campo eléctrico muy elevado; tales electrones dan lugar a su imagen. Con esta técnica se pueden observar muchos más detalles. De hecho, se ha conseguido fotografiar grandes moléculas.

El ADN:Genes y Cromosomas Objetivos del Proyecto Genoma Humano

Concepto de ADN:Genes y Cromosomas
Objetivos del Proyecto Genoma Humano 

La genética estudia los genes y la herencia. Dentro de las células, los cromosomas portan los genes o «instrucciones» que determinan todos los aspectos de un organismo. Los cromosomas son moléculas largas de ADN o ácido desoxirribonudeico. En el 2000, los científicos presentaron el «borrador» del proyecto genoma humano, la secuencia de miles de ácidos nucleicos individuales que forman una molécula de ADN. La decodificación del genoma podría favorecer los tratamientos para enfermedades hereditarias.

El genoma es el juego completo de información genética (hereditaria) almacenada en cada una de las células de un organismo: el ADN.  Además de los códigos que hacen funcionar el cuerpo, el ADN porta las variaciones genéticas que activan disfunciones y enfermedades. La comprensión del ADN proporcionó la clave de la herencia, y la descodificación de su código genético abrió el camino hasta el genoma.

Prácticamente todas las células del cuerpo humano contienen hasta 2,5 metros de ADN empaquetado en núcleos de 5 um (micrones) de diámetro. Los cromosomas empaquetan este ADN de una forma altamente especializada. Durante gran parte de la vida de la célula, su material genético está diluido y no puede verse; sin embargo, justo antes de la división celular  los cromosomas se duplican y son más fáciles de observar.

El descubrimiento de la estructura del ADN  y la identificación del código genético que transporta, supusieron un gran salto para la genética: por primera vez los científicos podían mirar más allá de la estructura de los cromosomas, es decir, a las instrucciones moleculares que contienen.

En el año 1972 se alcanzó un nuevo hito cuando se identificó la secuencia de los pares de bases que codifican un único gen vírico. El primer genoma basado en el ADN, el del virus bacteriófago phi-X174, fue secuenciado en 1977. Los científicos habían traspasado la línea que separa los genomas víricos simples de los más complejos basados en el ADN de los seres vivos.

Ideas Fundamentales de la Genética

* La genética estudia la transmisión de los caracteres de una generación a otra.

* El ADN contiene toda la información de las características de los individuos.

* La apariencia física es producto del genotipo.

* Las mutaciones son cambios azarosos en el ADN, debidas a factores como los virus, los químicos, las radiaciones, entre otros. Estas mutaciones pueden ocasionar enfermedades o la muerte.

* Las mutaciones han sido la materia prima en la evolución de la vida.

Ver: Genética

Concepto Básico de ADN, Cromosomas y Genes:

El núcleo de una célula cualquiera es el «centro de comando» de los procesos que desarrolla, ya que el ADN que contiene regula la formación, el crecimiento, el funcionamiento y la reproducción celular. El ADN es la macromolécula portadora de la información genética.

Esta información se halla en los segmentos de ADN denominados genes. Cada gen es una pequeña porción de secuencias de bases del ADN que codifica a una proteína específica. En la célula, las hebras de ADN están enmarañadas y se tiñen fácilmente con colorantes, lo que facilita su observación con el microscopio electrónico.

En este estado, el ADN recibe el nombre de cromatina (del griego cromo: color), y lleva a cabo las siguientes funciones:

■ controla su autoduplicación o replicación, por la cual se obtienen copias idénticas del ADN «madre», que luego se repartirán equitativamente en las células hijas;

■ controla la síntesis de los ARN que intervienen en la síntesis de proteínas.

Una vez que se ha producido la replicación, los filamentos de cromatina se condensan en estructuras compactas llamadas cromosomas (del griego cromo: color; soma: cuerpo).

Cada cromosoma está compuesto por una hebra espiralizada de ADN unido a proteínas específicas -las historias- y formado por dos brazos idénticos llamados cromátidas hermanas. Las cromátidas hermanas se unen por medio del centrómero.

Como decíamos antes el ADN, la macromolécula que contiene, en forma químicamente codificada, toda la información necesaria para construir, controlar y mantener un organismo vivo. Aunque el ADN fue identificado como sustancia transmisora de la herencia en 1944 por Oswald Avery (1877-1955), Colin Macleod (1909-1972) y Maclyn McCarthy (1911), su estructura geométrica fue descubierta en 1953 por James Watson (1928) y Francis Crick (1916-2004).

Oswald Avery Colin MacleodMaclyn McCarthy
Oswald Avery (1877-1955)Colin Macleod (1909-1972)Maclyn McCarthy (1911)

El núcleo de cada célula contiene el genoma que está conformado por 24 pares de cromosomas, los que a su vez contienen alrededor de 80.000 a 100.000 genes, los que están formados por 3 billones de pares de bases, cuya secuencia hace la diferencia entre los organismos.

Se localiza en el núcleo de las células. Consiste en hebras de ADN estrechamente arrolladas y moléculas de proteína asociadas, organizadas en estructuras llamadas cromosomas. Si desenrollamos las hebras y las adosamos medirían mas de 150 cm. , sin embargo su ancho sería ínfimo, cerca de 50 trillonesimos de pulgada.

El ADN que conforma el genoma, contiene toda la información necesaria para construir y mantener la vida desde una simple bacteria hasta el organismo humano. Comprender como el ADN realiza la función requiere de conocimiento de su estructura y organización.

La molécula de ADN conta de dos hebras arrolladas helicoidalmente, una alrededor de la otra como escaleras que giran sobre un eje, cuyos lados hechos de azúcar y moléculas de fosfato se conectan por uniones de nitrógeno llamadas bases.

Cada hebra es un acomodamiento linear de unidades similares repetidas llamadas nucleótidos, los que se componen de un azúcar, un fosfato y una base nitrogenada. Cuatro bases diferentes están presentes en la molécula de ADN y son:

· Adenina (A)

· Timina (T)

· Citosina (C)

· Guanina (G)

El orden particular de las mismas es llamada: secuencia de ADN , la cual especifica la exacta instrucción genética requerida para crear un organismo particular con características que le son propias. La adenina y la guanina son bases púricas, en cambio la citosina y la timina son bases pirimidínicas.

adn proyecto genoma

El ADN está constituido por dos cadenas,  cada una de las cuales formada por cuatro compuestos químicos, combinaciones de carbono, nitrógeno, oxígeno, hidrógeno y fósforo, denominados adenina (A), guanina (G), citosina (C) y timina (T).

Los cuatro tienen un comportamiento de álcalis o «bases» (lo contrario de ácidos). La estructura de la cadena es muy sencilla: lo que se puede considerar como su «esqueleto» está formado por una alternancia regular de ácido fosfórico (P) y un azúcar, la desoxirribosa (D); esto es:

P-D-P-D-P-D-P-D-…

Sobre este esqueleto, se superponen las cuatro bases mencionadas antes, pero de forma que a cada azúcar D va unida una base, A, C, G o T, formando una secuencia determinada (al conjunto de P, D y una base se le llama «nucleótido»); el ácido fosfórico es algo así como un eslabón de esta singular cadena, que tiene forma espiral de hélice, la famosa «doble hélice».

El ADN surge cuando se unen dos cadenas de este tipo, mediante el procedimiento de establecer uniones entre parejas de bases, pero sólo de manera que la T de una cadena se asocie a la A de la otra y la G a la C.

Cualquier otro emparejamiento está prohibido.

Con la excepción de las bacterias, el ADN aparece en forma de filamentos muy largos en los cromosomas, las unidades que se encuentran en los núcleos de todas las células de un individuo y gracias a las cuales los caracteres biológicos se transmiten de padres a hijos (el número de cromosomas varía entre uno, en las bacterias, y docenas o incluso cientos en los organismos superiores; en los seres humanos hay 23 pares).

Si pudiésemos extender el ADN de una célula humana, formaríamos un hilo de unos tres metros de longitud.

Y si se tiene en cuenta el número de células que poseemos, todo el ADN de una persona formaría un hilo de una longitud más de veinte veces la distancia que separa al Sol de la Tierra.

El «genoma» (conjunto de instrucciones —o de genes— que permiten construir un organismo) humano se encuentra en esos gigantescos hilos, y consta de unos tres mil millones de pares de bases.

CONCEPTO DE GEN: Neologismo introducido por Wihelm Juhannsen (1857-1927) en 1909 para designar las unidades de material heredado (o de transmisión genética). Proviene del griego génesis (generación). Situado, en los organismos superiores, en los cromosomas, un gen es una secuencia de pares de bases a los largo de un trozo de ADN , que tiene una función especifica conocida.

Los genes son ,en consecuencia, tiras de nucleótidos separadas entre si por otras tiras de ADN, denominadas también «secuencias intervinientes» o «intrones». José Sanmartín ha señalado, pertinentemente, que estas secuencias son como los espacios publicitarios de las películas de televisión, pero que mientras que sabemos cuál es la función de la publicidad, ignoramos todavía para qué valen realmente los intrones.

En los seres humanos existen unos 30.000 genes diferentes, cada uno agrupando entre 2.000 y 2.000.000 de pares de nucleótidos. Pequeños cambios (mutaciones) en la estructura química de los genes pueden tener consecuencias muy importantes. Como la anemia falciforme, una enfermedad hereditaria bastante frecuente.

Los hematíes de las personas con este tipo de genes sufren grandes alteraciones de formas cuando se exponen a bajas concentraciones de oxígeno.

Como consecuencia, a los hematíes les es entonces muy difícil pasar a través de los capilares sanguíneos, con el resultado de grandes dolores e incluso la muerte (por razones evidentes, en las academias de las Fuerzas Aéreas de algunas naciones se efectúan exámenes genéticos para detectar esta anemia).

Se conocen más de cuatro mil defectos en los que un solo gen provoca trastornos en los seres humanos. Y la mayoría son letales, abundando, además, los casos en los que las víctimas son preferentemente niños.

Estos ejemplos y nociones, tan sencillos y elementales, sirven perfectamente para apreciar con claridad parte de la importancia de la genética y biología moleculares. Con ellas es posible plantear la tarea de identificar el defecto genético responsable de enfermedades (se estima que un recién nacido de cada trescientos es portador de una anomalía genética).

En 1986, por ejemplo, un equipo de investigadores norteamericanos identificó el defecto genético responsable de un tipo de distrofia muscular.

En 1989, un grupo de biólogos anunció el descubrimiento de la situación del gen que, cuando sale defectuoso, produce la fibrosis quística, una enfermedad que afecta a los pulmones, páncreas y otros órganos.

A partir de entonces, los avances en esta dirección son constantes. En 1993, por ejemplo, se localizó el gen de la Corea de Huntington, un trastorno que produce una degeneración progresiva del cerebro, que viene acompañada d la aparición de fuertes movimientos incontrolados y que  conduce, inevitablemente por el momento, a la muerte (habitualmente ataca a las personas de alrededor de 35 años.

De esta manera, será posible (es ya posible en bastante casos) al menos identificar a los padres que pueden transmitir el defecto, o hacer pruebas a la mórula —el primer esbozo del embrión para comprobar si el ser humano que surgirá de él será portador o no de la anomalía. Y no sólo eso: en algunos casos será factible también remediar lo que antes parecía irremediable, curar las enfermedades.

El primer paso en esta dirección se dio en septiembre de 1991, Cuando se practicó a una niña de cuatro años el primer trasplante genético.

La experiencia tuvo éxito.

https://historiaybiografias.com/linea_divisoria3.jpg

Objetivos del Proyecto Genoma Humano:

El denominado Proyecto Genoma Humano se inició en 1990 por un consorcio de instituciones de diferentes países para llegar a conocer la secuencia completa del ADN del ser humano. Pese a que en los planes iniciales no contemplaban la posibilidad de secuenciar el ADN del ser humano antes de 2003, en abril de 2000 se consiguió la y secuenciación de casi la totalidad del mismo.

Paralelamente, en septiembre de 1998, una empresa privada llamada Celera Genomics System había iniciado el mismo proyecto. Se estableció formalmente el denominado Proyecto Genoma Humano, liderado por Estados Unidos, para determinar la estructura de nuestro genoma.

El resultado final se anunció el 11 de febrero de 2001: tenemos unos 30.000 genes, poco más del doble de una mosca y menos que el arroz, según se comprobó más tarde. Ahora sabemos que desde el punto de vista genético no nos diferenciamos demasiado de los chimpancés, con los que compartimos el 97,7 por ciento del genoma, ni de los orangutanes (96,4 por ciento), resultados que, obviamente, reivindican a Darwin. Las diferencias cuantitativas son pequeñas, pero no así siempre las cualitativas.

Los objetivos del Proyecto Genoma son:

· Identificar los aproximadamente 100.000 genes humanos en el DNA.

· Determinar la secuencia de 3 billones de bases químicas que conforman el DNA.

· Acumular la información en bases de datos.

· Desarrollar de modo rápido y eficiente tecnologías de secuenciación.

· Desarrollar herramientas para análisis de datos.

· Dirigir las cuestiones éticas, legales y sociales que se derivan del proyecto.

Para llevar a cabo este trabajo es necesario poder manejar de manera eficaz los millones de pares de bases. La fragmentación del material genético en pequeños fragmentos de pocas kilobases (1 kilobase = 1.000 bases) se inició en los años ochenta, de forma que se empezaron a crear las llamadas librerías genómicas. Con ellas se realizan los mapas físicos o se puede establecer el orden de las secuencias en el cromosoma.

La técnica seguida en el proyecto es la siguiente: mediante las llamadas endonucleasas de restricción se va fragmentando el ADN y se van obteniendo el mapeado y la secuenciación de cada uno de estos fragmentos o clones que posteriormente  analizan y comparan entre sí para determinar cuáles de ellos presentan lugares de restricción iguales, lo que permite su ordenación según ese criterio.

Una vez se han seleccionado varios fragmentos o clones de un gen y se ha establecido su orden, se vuelven a seleccionar cada uno de estos clones para seguir fragmentándolos en trozos más pequeños que permitan leer su secuencia. Mediante estos trabajos en la li nulidad se conoce el 90% de la secuencia del genoma humano y se ha comprobado que está constituido por aproximadamente 31.000 genes y no por los 100.000 esperados inicialmente.

El genoma humano presenta algunas características que se han podido conocer gracias a estas investigaciones:

– Los genes no se distribuyen de manera homogénea a lo largo de los cromosomas. El cromosoma que presenta menor número de genes a lo largo de su estructura es el cromosoma que condiciona el sexo masculino o cromosoma Y.

– El genoma humano es aproximadamente 25 veces mayor que el de un gusano o una mosca. Gran cantidad del material que se ha secuenciado se denomina material basura, pues no contiene la información para la síntesis de proteínas.

– Los genes constituyen alrededor del 5% del genoma, evidentemente la parte más importante de éste. Cada uno de estos genes tiene capacidad para la síntesis de una, dos o más proteínas. La capacidad del genoma humano para la codificación de proteínas es, portante, enorme, aunque el número de genes sólo represente el doble de los existentes en la mosca del vinagre.

– Se han identificado 1.038 grupos de proteínas comunes con otras especies. Las diferencias en la fisiología de los vertebrados, y por tanto del ser humano, frente a otras especies, se basan únicamente en un 7% de proteínas específicas.

– Se han encontrado polimorfismos en la secuencia del genoma cada 1.300 bases.

Este proyecto ha suscitado análisis éticos, legales, sociales y humanos que han ido más allá de la investigación científica propiamente dicha. (Declaración sobre Dignidad y Genoma Humanos, UNESCO) El propósito inicial fue el de dotar al mundo de herramientas trascendentales e innovadoras para el tratamiento y prevención de enfermedades.

Básicamente, el objetivo principal de las terapias géneticas es aportar un gen normal para paliar la insuficiencia de un gen. De hecho, existen dos tipos de terapias génicas: la terapia génica somática, que no se transmite a la descendencia, y la terapia de células germinales que sí se transmite.

Esta última se aplica con cierta extensión en la actualidad a razones y animales de granja. Su utilización con la especie humana no es técnicamente imposible, pero podría conducir a prácticas eugénicas Y también está la donación de la que me ocupo en otro lugar de este diccionario. (ver Eugenesia)

Los avances en el conocimiento de la estructura de los genes afectan al universo de los comportamientos y valores sociales, éticos, de manera que no es deseable limitar el tratamiento de las cuestiones que se refieren a la genética, biología molecular o ingeniería genética a aspectos puramente científicos o tecnológicos.

Veamos a continuación algunos posibles problemas que se pueden —y deben— analizar en tal sentido.

El que podamos averiguar la situación, en las secuencias de ADN que constituyen los genes, de los defectos que producen muchas enfermedades, constituye una información que se puede utilizar en numerosas direcciones.

Tomemos Como ejemplo a la corea de Huntington. La detección de esta enfermedad en un óvulo recién fecundado puede ser utilizada para que la mujer embarazada decida abortar, evitándose de esta manera un problema dramático. Pero pensemos en otro ejemplo que conduce a situaciones muy diferentes.

Una familia estadounidense tenía un hijo que padecía de fibrosis quística. El joven recibía atención médica a través de un seguro privado. Cuando su madre quedó embarazada de nuevo, se le exigió someter al feto a una prueba genética para averiguar si su hijo padecería el mismo trastorno. El resultado fue positivo, pero la mujer decidió continuar con su embarazo.

El seguro se planteó entonces la posibilidad de anular o limitar sus prestaciones a la familia.

Tenemos que darnos cuenta de que de lo que se está hablando aquí es de una situación nueva y compleja. Es evidente, especialmente dada la naturaleza de la cobertura médica en Estados Unidos, que la compañía de seguros —esta u otra cualquiera, en distintas o parecidas circunstancias— podía intervenir condicionando muy seriamente las posibilidades de esta familia, que, de esta manera, vería limitada gravemente su libertad.

¿Qué hacer en este tan notorio —y en muchos aspectos paradigmático— caso de conflicto de intereses?. He aquí uno de los problemas que el desarrollo del conocimiento científico plantea al presente y al futuro.

El mercado laboral puede verse también condicionado por la información genética. Hay que señalar en este sentido que uno de los hallazgos de la biología molecular es que existen secuencias de bases sensibles a la acción de factores ambientales determinados.

Como los que se pueden encontrar en algunos puestos de trabajo.

Aquí surgen, de nuevo, diferentes posibilidades. El poseer semejante información es, evidentemente, bueno para la persona, en tanto que elimina riesgos para su salud, pero también puede conducir a que las empresas en cuestión encaminen sus esfuerzos no a modificar las circunstancias medioambientales de sus centros de trabajo, ni a introducir cambios estructurales, sino, simplemente, a buscar empleados genéticamente resistentes, lo que tal vez conduciría a nuevas clases -o castas- sociales, definidas por características biológicas, una idea esta ante la que muchos retrocederíamos.

Mutaciones: Las mutaciones son alteraciones permanentes presentadas en el ADN de los genes. Al alterar el código genético producen cambios en el genotipo de los organismos que las padecen, y por ser permanentes, se transmiten a la descendencia. Las mutaciones en la gran mayoría de los casos son letales para los seres vivos; en muy contadas excepciones son benéficas.

Si una persona, al sufrir una quemadura, adquiere una cicatriz en su piel, está no se transmitirá a su descendencia. Al contrario, si ocurre una mutación en las células cuyas células hijas son el óvulo o el espermatozoide, ésta pasará a las generaciones siguientes.

Factores mutagénicos: Son los elementos que pueden inducir mutaciones en los seres vivos, es decir, los causantes de las alteraciones de la información genética. Los factores mutagénicos pueden ser de origen biótico o abiótico.

Factores mutagénicos bióticos: Entre los factores bióticos merecen tenerse en cuenta algunos virus. Un virus está formado por una molécula de ácido nucleico y una cápsula de proteínas. Como vimos en el taller anterior el virus se reproduce en el interior de la célula hospedera y después de muchas replicaciones se separa del material genético de la célula infectada y sale de ella.

Muchas veces, el material genético viral no se separa de la cromatina celular. Permanece indefinidamente ligado a ella, lo cual modifica la estructura genética y por consiguiente origina  mutaciones que conducen a enfermedades graves y a veces a la muerte. El virus del herpes, por ejemplo, se ha asociado con el origen de algunas formas de cáncer.

Factores mutagénicos abióticos: Entre los factores mutagénicos abióticos podemos considerar algunas sustancias químicas y algunas radiaciones físicas. Hay sustancias químicas que pueden modificar la estructura de las bases nitrogenadas del ADN o parecerse a ellas y ocupar su lugar, lo que conduce a errores en el código genético, induciendo mutaciones en personas expuestas a ellas que luego pasan a la descendencia. También pueden actuar a nivel del embrión de la mujer gestante, conduciendo a malformaciones genéticas severas y en ocasiones a la muerte embrionaria o fetal.

Entre las radiaciones físicas mutagénicas podemos enunciar la radioactividad, la luz ultravioleta, los rayos X. Éstos actúan sobre el ADN, produciendo modificaciones en algunas bases nitrogenadas y de esta manera alteran la información genética.

Las mutaciones, materia prima de la evolución Las mutaciones son esenciales en la evolución de las especies, ya que todas las variaciones genéticas se originan en cambios azarosos en la secuencia del ADN. El ambiente siempre está probando las secuencias existentes y nuevas de ADN, generando la competencia por la supervivencia. Ocasionalmente una mutación produce beneficios en las interacciones de los individuos con su ambiente.

La mutación podrá diseminarse en las nuevas poblaciones y predominar. Los individuos que las posean competirán de mejor manera con los individuos que albergan la secuencia original de ADN no mutada.

La lectura del genoma humano permite comprender mejor la enfermedad.

TERAPIA GÉNICA: La terapia gen la podría utilizar virus para modificar genomas de células específicas. Los virus pueden servir de portadores de genes que actúen por sí mismos o modifiquen los efectos de otros. Esto podría aplicarse a trastornos genéticos concretos.

EL PROYECTO HAPMAP: El objetivo de este proyecto de investigación internacional lanzado en 2002 es una base de datos gietoai de enfermedades hereditarias. El mapa registrará haplotipos (grupos de polimorfismos de nucleótido simple heredados normalmente como unidades) humanos extendidos. Los haplotipos compartidos pueden usarse como marcadores para identificar genes que activan afecciones concretas.

GENES EXPRESADOS: Distintas células activan (expresan) distintos genes. En el futuro, la identificación de proteínas codificadas por genes expresados facilitará la identificación de tipos específicos de células cancerosas.

MAPA GENÉTICO NEONATAL: Hacia 2020, los recién nacidos podrán contar con su mapa genético, que alertará sobre enfermedades hereditarias y así ampliará el campo terapéutico.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

ALGO MAS SOBRE EL TEMA….

Todavía sabemos relativamente poco sobre cómo un óvulo fecundado se convierte en adulto, con cientos de tipos de tejidos distintos, cada uno con exactamente el mismo mensaje genético, pero con cometidos tan distintos como crear el cerebro y los huesos.

Aunque ya hace mucho tiempo que es posible cultivar plantas adultas, y hasta ranas, a partir de células solas, la idea de que pudiera hacerse lo mismo con mamíferos parecía una fantasía, hasta el nacimiento de la oveja Dolly en 1997. Entonces, con el sencillo truco de insertar el núcleo de una célula adulta en un óvulo vaciado y permitirle desarrollarse en el interior de su madre adoptiva, se creó una oveja sin necesidad de sexo: se había clonado.

La clonación de ovejas o vacas podría ser importante para la cría de animales, y podría emplearse para elaborar múltiples copias de animales a los que se les han insertado genes humanos para producir proteínas como la hormona del crecimiento (que ya se utiliza para el «farmacultivo» de animales, la producción de fármacos valiosos en la leche).

La publicidad que siguió a Dolly suscitó una condena inmediata de la idea de la clonación humana, a menudo sin reflexionar demasiado sobre por qué debía ser algo tan horrendo. Después de todo, estamos acostumbrados a ver gemelos idénticos (que son mutuamente clónicos), así que ¿por qué debe suscitar tanto horror una versión artificial? Además, al fin y al cabo la opinión pública moldea lo que la ciencia puede hacer y la perspectiva de clonar un ser humano parece muy lejana.

Y ¿por qué querría alguien hacerlo? Quienes aseguran que surgirá un ejército de Sadam Husseines idénticos rayan en la tontería y también parece improbable la replicación de un hijo querido que murió joven. Sin embargo, la técnica hace albergar grandes esperanzas a la medicina. Las células del embrión en sus primeras fases (o células madre, como se las conoce) tienen el potencial de dividirse en una variedad de tejidos y pueden cultivarse —clonarse— en el laboratorio, o incluso manipularse con genes ajenos.

Tal vez podrían generar células cutáneas o sanguíneas nuevas o, con el tiempo, incluso órganos completos. Al implicar el uso de embriones en sus primeras fases que quizás se han conseguido mediante fecundación artificial en el laboratorio y que no se necesitan para implantarlos en la madre, todo esto se ha mezclado con el debate sobre el aborto. En Estados Unidos, el grupo de presión «Pro-Vida» ha logrado que tales investigaciones no reciban financiación de fuentes públicas.

La genética siempre se ha mezclado con la política. Se ha utilizado tanto para culpar el comportamiento humano como para excusarlo. La reivindicación de un «gen gay» suscitó dos respuestas distintas en la comunidad homosexual.

Algunos temían que el gen se utilizara para estigmatizarlos, pero muchos acogieron bien la idea de que su comportamiento pudiera estar codificado en el ADN, pues eso implicaba que no podía acusárseles de corromper a quienes no estaban ya en una situación «de riesgo». Estas opiniones contrarias son aplicables por igual a los supuestos genes que predisponen a delinquir; ¿acaso constituyen la prueba de que el criminal no puede reformarse y es preciso encerrarlo para siempre o deben utilizarse como descargo para sostener que no estaba actuando por voluntad propia?

La ciencia carece de respuesta para semejantes preguntas y, finalmente, el resultado más sorprendente de la nueva genética puede ser lo poco que nos dice sobre nosotros mismos.

EL MAPA GENOMA Y LAS ENFERMEDADES GENÉTICAS: Existen más de 4.000 enfermedades «de un solo gen», que siguen fielmente las leyes de Mendel y que pueden ser dominantes como la calvicie precoz, recesivas, como el albinismo, o ligadas al sexo, como la hemofilia o el daltonismo. Las enfermedades poligénicas son mucho mas.

Enfermedad de Alzheimer o enfermedad degenerativa del cerebro. Los enfermos pierden la memoria y el juicio. Afecta personas de más de 65 años y a casi el 50% de las de más de 80 años. Se localizaron varios marcadores de origen genético en los  cromosomas 1, 14, 19 y 21, que provocan diferentes tipos de Alzheimer, desde el tipo I hasta el IV. Es interesante que una trisomía en el cromosoma 21 (la presencia de un cromosoma 21 extra en cada célula) sea la causante del síndrome de Down, la forma más común de retraso mental. Las personas con síndrome de Down casi siempre suelen desarrollar la enfermedad de Alzheimer.

Cáncer de colon. Este tipo de cáncer le sigue en importancia al cáncer de pulmón. Más de 50.000 personas mueren cada año a causa de esta enfermedad. Los síntomas son hemorragias rectales, presencia de sangre en las heces. Un alelo mutante en el cromosoma 2 que aparece con frecuencia en determinados cánceres de colon, llamado MSH2, produce una enzima similar a las enzimas bacterianas reparadoras del ADN, por lo que su carencia o mal funcionamiento podrían explicar el desarrollo incontrolado de las células cancerigenas.

Cáncer de pulmón. Es la forma más común de cáncer en los países desarrollados. Se presenta con una tos persistente, dolor en el pecho, jadeos, ataques repetidos de neumonía y bronquitis, aparición de sangre al toser y ronquera. Como todos los cánceres, el de pulmón puede causarfatiga, pérdida de apetito y de peso. Un gen en el cromosoma 3, llamado SCLC1, predispone a padecer cáncer de pulmón. Pero éste depende del ambiente en la inmensa mayoría de los casos.

Corea de Huntington. Es una enfermedad degenerativa del cerebro, que lleva a la demencia. Se manifiesta entre los 30 y los 50 años. Los síntomas son cambios en la personalidad y en el estado de ánimo, depresión y pérdida gradual del control de los movimientos voluntarios, con espasmos primero y grandes movimientos al azar, como en un raro baile. Es provocada por un gen dominante localizado en el cromosoma 4; mediante un análisis de sangre se puede detectar la presencia del alelo.

Displasia diastrófica. Es una anormalidad del crecimiento caracterizada por huesos curvados, extremidades cortas y deformaciones en las articulaciones, los pies y las manos. Se ha descubierto un gen, en el cromosoma 5, asociado con esta enfermedad. Ha recibido el nombre de DTD.

Diabetes juvenil. La diabetes es una enfermedad metabólica crónica que las células pancreáticas sinteticen insulina, la hormona que controla el nivel de glucosa en la sangre. La diabetes, o del Tipo I es la más severa. Con esta enfermedad se asoció el gen llamado IDDM1, localizado en el cromosoma 6.

Obesidad. Es el exceso de grasa en el cuerpo, que frecuentemente trae aparejada una serie de problemas médicos. Una de cada cuatro personas en los países desarrollados está en riesgo de padecer esta afección y tiene más probabilidad de contraer enfermedades cardiovasculares. Los científicos pudieron determinar una proteína mutada en los ratones obesos. Se trata del polipéptido denominado leptina. Esta misma proteína se encuentra en el hombre. Es codificada por un gen localizado en el cromosoma 7. Queda por demostrar su relación con algunos casos de obesidad patológica.

Fenilcetonuria. Rara enfermedad metabólica causada por una deficiencia en la enzima fenilalanina-hidroxilasa, que en el hígado en las personas sanas. Es una enfermedad monogénica localizada en el cromosoma 12.

Enfermedad poliquística del riñón. Se caracteriza por provocar muchos quistes de gran tamaño en uno o en ambos riñones. Los insuficiencia renal o por las consecuencias de esta, como la hipertensión. En el cromo

Cáncer de páncreas. Es provocado por un gen, llamado DPC4, localizado en el cromosoma 18, cuyo producto proteico recibió el nombre de «supresor del carcinoma pancreático». Las mutaciones en este gen hacen que este tipo de forma especialmente agresiva e invada otros tejidos circundantes.

Distrofia miotónica. Enfermedad hereditaria de los músculos. Está asociada con una secuencia repetida de nucleótidos en el cromosoma 19. Una de las características poco usuales de esta enfermedad es que su severidad se  va acrecentando de una generación a otra, debido a que aparece cada vez un mayor número de repeticiones de la secuencia que produce la enfermedad.

Inmunodeficiencia severa combinada. Enfermedad monogénica bien caracterizada. Se manifiesta por la incapacidad del sistema  inmunitario de sintetizar anticuerpos que permitan neutralizar cualquier infección. El gen que codifica esta inmudeficiencia se localiza en el cromosoma 20.

Esclerosis lateral amiotrófica. Es la enfermedad que padece Stephen W. Hawking, el físico teórico inglés Es un trastorno neurológico degenerativo que provoca la progresiva inutilización de las neuronas motare del cerebro. En 1991, un equipo de científicos localizó en el cromosoma 21 un gen ligado a este tipo de e: S0D1 y presentaba una mutación recesiva.

Distrofia muscular de Duchenne. Crecimiento anormal de los músculos. El paciente muere hacia los veinte años, por paro cardíaco o pulmonar. Está ligada al sexo, por lo que su frecuencia de aparición es mucho mayor en varones, y su gigantesco gen se loe en el cromosoma X.

Malformación de los testículos. El cromosoma Y está prácticamente vacío, en comparación con su compañero, el X. Uno de los pocos  genes que pudieron localizarse en el cromosoma Y es el llamado factor determinante de los testículos, o TDF. Se trata de una «factor de transcripción». El TDF es capaz de unirse a determinados genes (no necesariamente en el cromosoma Y), cuyos productos proteicos son necesarios para la formación de los testículos durante el crecimiento fetal, lo que detrmina el futuro del individuo.

(Fuente: BIOLOGÍA Aciva Polimodal Puerto de Palos)

Fuente Consultada:
Diccionario de la Ciencia de José Manuel Sánchez Ron
Gran Enciclopedia Universal Espasa Calpe Tomo 4
El Jardín de Newton de José Manuel Sánchez Ron
Ciencias Naturales y Tecnología 3 Santillana

Evolucion de la Ingenieria Genetica Historia y Cronología de Avances

Evolución de la Ingeniería Genética y Cronología de los Avances

Los avances científicos del siglo xx han sido prolíficos y variados, ellos fueron, son y serán determinantes para mejorar la calidad de vida de los hombres del mundo. Muchos recordarán este período por la llegada del hombre a la Luna y la conquista del espacio exterior, la invención de las computadoras, los trasplantes de órganos o los bebés de probeta.

El recorrido por los hechos más sobresalientes de este siglo muestra que los logros en Genética y Biología molecular son altamente significativos y que tendrán notable incidencia en la curación de importantes enfermedades. Por esa razón, elegimos denominarlo «el siglo de oro de la Genética».

La teoría de la genética: A mediados del siglo XIX, la teoría de la evolución por selección natural, expuesta por Charles Darwin en su obra El origen de las especies (1859), suscitó encendidas controversias. A principios del siglo XX, los ánimos se habían serenado y los biólogos comenzaban a interesarse más por los mecanismos de la evolución que por la validez de la teoría de Darwin.

El carácter hereditario de ciertos rasgos es un hecho reconocido desde los albores de la civilización, ya que los parecidos familiares constituyen una observación al alcance de todos. Los criadores de ganado han aprovechado desde tiempos remotos este fenómeno para mejorar la calidad de sus animales.

Pero hasta fines del siglo XIX, los métodos utilizados eran totalmente empíricos. Por ejemplo, Robert Bakewell, famoso criador inglés del siglo XVIII, obtenía excelentes resultados por el procedimiento de cruzar a sus animales con otros no emparentados para conseguir los rasgos deseados y cruzar posteriormente entre sí a los animales así obtenidos con el fin de estabilizar los caracteres conseguidos.

La genética no surgió como ciencia hasta 1900, pero sus fundamentos habían sido sólidamente establecidos 40 años antes por Gregor Mendel, monje moravo del monasterio de Brno.

Entre 1851 y 1853, su orden lo envió a Viena a estudiar ciencias y, al regresar al monasterio (del que llegó a ser abad en 1868), inició una serie de experimentos con la planta del guisante (Pisum). Estudió siete características específicas de esta planta, entre ellas, la forma de la semilla, el color de las flores y la longitud del tallo.

TEMAS TRATADOS:

La Célula Célula Madre Los Genes y Genoma Estructura ADN La Oveja Dolly La Clonación
Terapia Genética La Biotecnología

Llevando detallados registros sobre más de 20.000 ejemplares, descubrió que estas características eran hereditarias en un coeficiente aproximado de 1:3. El cruzamiento de plantas de tallo largo con ejemplares de tallo corto daba como resultado plantas de uno u otro tipo, nunca de altura intermedia.

Mendel supuso entonces que estas características eran transmitidas por factores hereditarios específicos que estaban localizados en las células germinales.

Sus ideas eran básicamente correctas pero, por desgracia, pasaron inadvertidas ya que sólo se publicaron en el periódico de la Sociedad de Historia Natural de Brno. Decepcionado, envió una copia de su trabajo al destacado botánico suizo Karl von Nágeli (1817-1891), que no fue capaz de reconocer su importancia.

El hecho fue tristemente irónico, ya que el propio Nágeli, en 1842, había descrito minuciosamente el proceso de formación del polen en la familia de las azucenas, las liliáceas, y en sus apuntes había indicado la separación en el núcleo de lo que denominó «citoblastos transitorios», que eran en realidad los cromosomas, portadores de los «factores hereditarios» (genes) de Mendel.

Se perdió así una gran oportunidad. En 1900, dieciséis años después de la muerte de Mendel, el botánico holandés Hugo de Vries publicó los resultados de una larga serie de experimentos de reproducción vegetal, en los que también obtuvo un coeficiente de 1:3. Al publicar sus trabajos, citó las investigaciones de Mendel, realizadas treinta y cuatro años antes.

En pocas semanas, otros dos botánicos, C.E. Correns en Alemania y E. Tschermak von Seysenegg en el Imperio Austrohúngaro, publicaron resultados similares. De esta forma, el nuevo siglo comenzó con la confirmación de los coeficientes de Mendel, que sentaron una sólida base para la teoría genética.

En Estados Unidos, el zoólogo T.H. Morgan comenzó a estudiar la evolución y la herencia en 1903. Al principio, los resultados de Mendel le inspiraban escepticismo, pero sus investigaciones con la mosca de la fruta, Drosophila (un sujeto experimental particularmente conveniente, ya que se reproduce con rapidez y presenta cromosomas gigantes en las células de las glándulas salivales), muy pronto lo convencieron.

Llegó a la conclusión de que los genes, dispuestos en los cromosomas como las cuentas en un collar, eran las unidades de la herencia, y en 1911 publicó con sus colaboradores el primer «mapa cromosómico», en el que aparecía la localización de cinco genes ligados al sexo. Diez años más tarde, más de 2.000 genes habían sido localizados.

En 1900 se aceptaron las leyes de la herencia que Johan Gregor Mendel había hecho públicas en 1865. En 1953,James Watson y Francis Crick descubrieron la estructura del ácido desoxirribonucleico (ADN), la llamada «molécula de la herencia», que contiene las instrucciones necesarias para crear un ser vivo. La publicación de su artículo en la revista Nature, en 1953, fue el punto de partida de una revolución científica todavía en curso. En 1973 nació la ingeniería genética, al conseguir transplantar material genético de un organismo a otro.

La lista de organismos creados a medida -y patentados- se amplió año tras año: una bacteria que devoraba el petróleo (1980), ratones que pesaban el doble de lo normal (1982) o un tomate con el proceso de maduración ralentizado (1987). Con la oveja Dolly, se popularizaron los clones, organismos genéticamente iguales a otro.

En 2003 se consiguió el desciframiento completo del genoma humano, la cadena de ADN que contiene nuestras instrucciones genéticas. Se concluyó que de los 3.120 millones de datos que lo componen, el 99,8% de ellos es idéntico para todas las personas, dato que invalidó definitivamente el criterio discriminador de raza.

Revelaba también que tenemos en torno a los 30.000 genes, poco más del doble que una mosca, 300 genes más que los ratones y muchos menos que el arroz. Lo que nos hace distintos, pues, no es la cantidad sino la interacción entre los genes.

Con el desciframiento del genoma, se inauguró una nueva era de la medicina, con aplicaciones todavía impredecibles en la detección, prevención y tratamiento de enfermedades.

Si la responsabilidad social del científico ya era un tema debatido cuando estudiaba materia inorgánica, más lo es en la actualidad, cuando en el laboratorio se crean seres vivos y se experimenta la clonación humana. Otro debate abierto es la relación entre ciencia y empresa. En el pasado, la ciencia se ha beneficiado del intercambio de información, de la búsqueda desinteresada del conocimiento como un fin en sí mismo, del trabajo competitivo pero altruista de universidades y centros públicos.

Hoy, las leyes del mercado rigen el mundo científico, especialmente en los EE.UU., líderes absolutos en investigación. Las empresas invierten lo que no invierten los estados pero sus legítimos intereses económicos condicionan el avance científico, incluso en el ámbito público, e impiden la libre circulación del conocimiento.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

CRONOLOGIA DE LA EVOLUCIÓN CIENTÍFICA

Entre todos los acontecimientos seleccionamos los siguientes:

1902. Hugo de Vries (botánico y genetista holandés, 1848-1935) descubre las mutaciones genéticas, cambios repentinos en los genes que se transmiten luego a la progenie.

1902. Ernest H. Starling (fisiólogo inglés, 1866-1927) y William M. Baylss (fisiólogo británico, 1860-1924) aislan la primera hormona sintética: la secretina.

1902-1909. Walter S. Sutton (genetista norteamericano, 1877-1916) y Thomas H. Morgan (genetista norteamericano, 1866-1945) descubren que las partículas que transmiten la herencia (genes) están ubicadas en los cromosomas.

1905. Albert Einstein (físico suizo-alemán, 1879-1955) publica su trabajo acerca de la teoría de la relatividad. «En ciertas condiciones extremas la masa se transforma en energía.»

1913. Alfred H. Sturtevant (genetista estadounidense, 1891-1970) comienza a construir mapas cromosómicos.

1914. Luis Agote (médico argentino, 1868-1954) logra que la sangre pueda mantenerse en estado líquido fuera del cuerpo al agregarle un anticoagulante: el citrato de calcio.

1923. Frederick G. Banting (médico canadiense. 1891-1941) recibe el Premio Nobel de Medicina y Fisiología porque logró aislar la insulina, hormona que regula el metabolismo de la glucosa y que se utiliza hoy en día en el tratamiento de la diabetes.

1927. Hermann J. Muller (biólogo norteamericano, 1890-1967) descubre que la exposición a los rayos X incrementa la tasa de mutaciones.

1928. Alexander Fleming (bacteriólogo escocés, 1881-1955) descubre accidentalmente la penicilina.

1937. Theodosius Dobzhansky (genetista estadounidense, 1900-1975) establece la vinculación entre los mecanismos de la herencia y la selección natural, dando origen a la teoría sintética de la evolución.

1947. Bernardo A. Houssay (médico argentino. 1887-1971) obtiene el Premio Nobel de Medicina y Fisiología por sus investigaciones sobre la función de la glándula hipófisis en la regulación del metabolismo de los azúcares.

1953. James D. Watson (bioquímico norteamericano, n. 1928) y Francis H. C. Crick (físico inglés, n. 1916) presentan la estructura molecular del ADN. base de la reproducción de todas las formas de vida. Por su hallazgo, en 1962 reciben el Premio Nobel de Medicina y Fisiología. 1965. Christian N. Barnard (médico sudafricano, n. 1922) realiza el primer trasplante de corazón humano.

1965. Los biólogos franceses Francois Jacob (n. 1920), André-Michel Lwoff (n. 1902) y Jacques-Lucien Monod (1910-1976) comparten el Premio Nobel de Medicina y Fisiología por sus descubrimientos relacionados con la genética de los procariotas.

1969. Los microbiólogos norteamericanos Max Delbrück (1906-1981), Salvador E. Luria (n. 1912) y Alfred Day Hershey (n. 1908) comparten el Premio Nobel por sus descubrimientos vinculados con el mecanismo de replicación y la estructura genética de los virus.

1969. El astronauta norteamericano Neil A. Armstrong (n. 1930) es el primer hombre que pisa el suelo de la Luna. El 20 de julio. Armstrong y su compañero Edwin E. Aldrin (n. 1930) posan el módulo lunar Apolo XI en la superficie lunar, mientras Michael Collins (n. 1930) permanece en órbita en torno del satélite.

1970. Luis F. Leloir (bioquímico argentino. 1906-1987) recibe el Premio Nobel de Química por descubrir el papel de un nuevo tipo de complejos esenciales para la vida animal y vegetal como el glucógeno, la celulosa y el almidón.

1973. Konrad Z. Lorenz (médico y naturalista austríaco, 1903-1989) es galardonado con el Premio Nobel de Medicina y Fisiología por su estudio de la conducta de los animales y la introducción del término Etología. premio compartido con Karl R. von Frisch (zoólogo alemán, 1886-1982) y Nikolaas Tinbergen (zoólogo holandés, 1907-1988).

1981. Barbara McClintock (química estadounidense, 1902-1992) recibe el Premio Nobel de Medicina y Fisiología por sus estudios de mapeo ci-tológicos en los que observó inactivación de genes por el movimiento de elementos génicos de un lado al otro de los cromosomas.

1984. César Milstein (bioquímico argentino, n. 1927) recibe el Premio Nobel de Medicina y Fisiología por su descubrimiento acerca de los principios que rigen la producción de los anticuerpos monoclonales. Este descubrimiento es utiliz: por la Medicina para la elaboración de vacunas y el diagnóstico de enfermedades como el cáncer.

1987. Susumu Tonegawa (bioquímico japones n. 1927) recibe el Premio Nobel de Medicina y Fisiología por demostrar que segmentos de ADN separados codifican porciones variables de moléculas de los anticuerpos, iniciando de esta manea una serie de descubrimientos en relación con el funcionamiento del sistema inmune.

1990. Los doctores estadounidenses W. French Anderson, R. Michael Blaese y K. Culver, del Instituto Nacional de Sanidad de Bethesda, realizar, con éxito la primera terapia génica en una niña de cuatro años, Ashanti De Silva, que padecía inmunodeficiencia combinada grave, una enfermedad hereditaria mortal.

1997. Un equipo científico del Instituto Roslin. de Escocia, dirigido por el doctor Ian Wilmut. crea una oveja por clonación a partir del núcleo celular de la ubre de su progenitura y del citoplasma de un óvulo. Dolly, la primera oveja clonada, abre unnuevo camino en el campo de la Ingeniería genética y la Biotecnología, de resultados y consecuencias aún insospechados.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

INGENIERÍA GENÉTICA

Disciplina que se ocupa de «unir genes»; esto es, de sustituir un segmento de ADN de una célula por uno de otra (al organismo que surge de este proceso se lo denomina transgénico).

Hasta comienzos de la década de 1970 no se conocían técnicas adecuadas para manipular el ADN en tubos de ensayo. Debido a ser las moléculas de ADN de gran tamaño, cuando se las intentaba fragmentar los cortes se producían al azar, con lo cual se descomponía la información genética contenida en ellas de forma tal que era prácticamente imposible de recomponer.

Sin embargo, a comienzos de esa década se encontraron herramientas moleculares que podían resolver muchos de esos problemas: enzimas capaces de cortar sólo por sitios determinados las moléculas de ADN; ligasas capaces de reunir con precisión molecular los fragmentos y sellar las uniones para dejarlas perfectamente reparadas, y un gran número de otras enzimas capaces de cortar, modificar, multiplicar y recomponer el ADN (se habla de ADN recombinante), lista es la tecnología conocida como ingeniería genética.

Por medio de ella se pueden seleccionar no ya individuos, sino algunos de sus genes o porciones de ellos. Se puede, en definitiva, crear algo absolutamente nuevo: nuevas moléculas vivientes, nuevos genes y por tanto nueva vida.

Y existen otros procedimientos, más recientes, que introducen importantes novedades. Desde finales de la década de 1980 y comienzos de la de 1990 existe la posibilidad de generar animales a los cuales se les puede eliminar un determinado gen.

No se trata, pues, de animales transgénicos, sino de estirpes (de ratones, por ejemplo) carentes de un determinado gen, lo que permite precisar cuál es la verdadera función de ese gen, sin más que estudiar las deficiencias que presenta el animal.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Las técnicas de Ingeniería genética se basan en el ADN recombinante, formado por moléculas de ADN que se originan en dos o más organismos (o virus) diferentes. En general, tienen un denominador común: en todas se manipula el material genético (ADN) de dos o más especies diferentes.

Estas técnicas, desarrolladas hace menos de treinta años, revolucionaron todas las áreas de investigación y de aplicación tecnológicas. Tuvieron una enorme influencia en el diagnóstico y en el tratamiento de distintas enfermedades, así como en el agro y en la industria, pues con ellas desarrollaron microorganismos, plantas y animales de crecimiento más rápido, de mejor rendimiento nutritivo, etc. Se utilizaron, por ejemplo, para la fabricación de antibióticos y para lograr una mayor resistencia a los herbicidas.

Las principales «herramientas moleculares» que se emplean para obtener ADN re-combinante son, además de la secuenciación del ADN y de la clonación ya estudiadas, las enzimas de restricción y la reacción en cadena de la polimerasa.

• Las enzimas de restricción actúan a la manera de «tijeras» moleculares, y segmentan el ADN en puntos específicos de la cadena, es decir, son capaces de fragmentar el genoma. Una de las utilidades de dichas enzimas es que permiten localizar los genes responsables de las distintas enfermedades hereditarias que afectan al hombre.

Por medio de ellas, se obtienen fragmentos de ADN, los cuales pueden insertarse en el interior del ADN de vectores («vehículos moleculares») presentes en las bacterias: los plásmidos. Esta nueva molécula de ADN es el ADN recombinante. Así, resulta posible, por ejemplo, introducir en un plásmido bacteriano el gen que codifica la producción de la insulina humana.

• La reacción en cadena de la polimerasa (PCR) es un método que permite obtener, en poco tiempo, muchísimas copias de un fragmento de ADN particular. Fue desarrollado en 1983 por el bioquímico norteamericano Kary Mullís, a quien diez años después se lo distinguió con el Premio Nobel por esta invención.

Para realizar la PCR, sólo hace falta conocer una parte de la secuencia del fragmento que se desea amplificar. La sensibilidad del método es tal que una pequeñísima fuente de ADN, como la contenida en una gota de sangre o esperma o en la raíz de un cabello, basta para realizar el análisis.

Las aplicaciones de estas dos técnicas son innumerables: pueden utilizarse para diagnosticar enfermedades genéticas, detectar infecciones virales y bacterianas o determinar la identidad del sospechoso de un crimen, además de ser herramientas fundamentales en los laboratorios de investigación.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png
esquema obtencion de insulina reconbinante
Obtención de insulina recombinante: A: Los genes de la insulina humana son introducidos en un plásmido bacteriano detrás del gen bacteriano de la galactosidasa, y quedan así incorporados en su dotación génica. B: Cuando los genes que regulan la producción de insulina incorporados a genoma de la bacteria se expresan, el microorganismo comienza a generar insulina idéntica a la humana.

Fecha del Primer Animal Clonado La Oveja Dolly Metodo Usado

Feha de Clonación: La Oveja Dolly Primer Animal Clonado

La Oveja Dolly Primer Animal ClonadoEl 23 de febrero, un equipo científico de Escocia presentó a la primera oveja creada por la técnica de donación a partir de una sola  célula de la madre.

Un año antes, el mismo equipo, dirigido por Ian Wilmut, había conseguido cinco ovejas por donación de un único embrión.

La diferencia en el caso de Dolly es que ahora no fue necesaria la fertilización con un espermatozoide

Dolly fue creada con una célula de la ubre de la oveja y un óvulo que permitió leer la información genética que trae el núcleo de la célula.

Aunque hubo otros experimentos similares (la primera vaca por donación fue creada en 1986, se realizaron experimentos similares con ranas y la técnica es de 1967), la aparición de Dolly provocó un amplio debate sobre los alcances de la donación.

«Fue un trabajo de mucha perseverancia, y se necesito 277 intentos de transferencia
nuclear celular somática para crear a Dolly»

Esta técnica fue calificada de «profanación genética» por la Iglesia Católica y muchos gobiernos la criticaron. Ante la atemorizante perspectiva de contar con «dobles» de personas, Wilmut aseguró que la donación era imposible en humanos.

Pero la genética y la biotecnología podrían constituir la base para formidables negocios en las áreas del agro, la ganadería y la industria farmacéutica, entre otras.

Meses después del nacimiento de Dolly, apareció la primera oveja transgénica (que posee un gen humano): Dolly. Un año después de este experimento, Dolly tuvo cría. Se trata de Bonnie, de 2,7 kilos, que nació el 13 de abril de 1998 (Dolly había sido apareada naturalmente con un carnero a fines de 1997).

En 1998 hubo más casos de donación. Entre ellos, el de la ternerita Marguerite, que nació el 20 de febrero de ese año. Fue donada por un grupo de científicos franceses a partir de la célula de un feto de 60 días. También nacieron terneros donados en Estados Unidos y hubo experimentos similares con monos y ratones.

Para esa misma época, los responsables de la creación de Dolly, miembros del Instituto Roslin de Escocia, que habían recibido varias críticas de sus colegas, admitían la posibilidad de que se trate de un clon obtenido con una célula de un feto y no de un animal adulto.

esquema de la clonacion animal dolly

https://historiaybiografias.com/linea_divisoria3.jpg

¿Qué es la clonación?

Un clon es un conjunto de organismos genéticamente idénticos que provienen de un mismo progenitor.

La idea de la clonación no es nueva. Hace cerca de doscientos años, los agricultores descubrieron que podían obtener plantas enteras a partir de una rama, de una raíz o de cualquier otra parte de un vegetal.

La facilidad con que se clonan los vegetales tiene su explicación. En general, las células vegetales, a diferencia de las animales, son totipotenciales, es decir, conservan la capacidad de generar un individuo completo. En la mayoría de los animales, las únicas células totipotenciales son las embrionarias. Pero aun en ellas el efecto dura poco tiempo, pues inmediatamente después empiezan a experimentar una serie de cambios que las convierten en, por ejemplo, células nerviosas o musculares. Llegadas a este estado, es imposible dar marcha atrás.

Pero aunque parecía difícil, y de hecho lo era, la clonación animal llegó. Los primeros experimentos se hicieron con ranas, a las que muy pronto siguieron ratones y, finalmente, ovejas. Sin embargo, en un principio sólo era posible clonar embriones. Es decir, se podía tomar una célula de un embrión temprano y fusionarla con un óvulo al que previamente se le había extraído el núcleo.

De este modo, se obtenían dos animales idénticos entre si, pero diferentes de sus progenitores o, más bien, con el parecido que habitualmente presentan padres e hijos.

El 24 de febrero de 1997, un grupo de científicos escoceses del Instituto Roslin, de Edimburgo, asombró al mundo al anunciar que habían conseguido clonar una oveja a partir de una hembra adulta. El clon, llamado «Dolly», causó terrible revuelo, ya que se abría la posibilidad de que este procedimiento se aplicara a otros mamíferos, incluso el ser humano.

¿En qué consistió el experimento? Se cultivaron in vitro células de la glándula mamaria (ubre) de una oveja adulta de la raza Finn Dorset (de cara blanca). Dichas células fueron posteriormente fusionadas, mediante shock eléctrico, con ovocitos (óvulos inmaduros) de una oveja de raza Scottish Blackface (blanca de cara negra), a los que antes se les había extraído el núcleo.

Tras ser activados con una leve descarga eléctrica, estos ovocitos fertilizados de manera artificial comenzaron a dividirse. Cuando los embriones llegaron a tener entre ocho y dieciséis células (estadio de mórula), se implantaron en el útero de otra oveja Scottish Blackface. Y, al cabo de 148 días, nació un cordero de 6,6 kg de peso: Dolly.

https://historiaybiografias.com/linea_divisoria3.jpg

PRIMEROS PASOS HACIA LA CLONACIÓN: Ian Wilmut (1944): Es conocido por estar a cargo del equipo que realizó por primera vez la clonación de un  mamífero a partir de células adultas: la oveja Dolly.

Previamente, el profesor Wilmut había sido parte del equipo que logró el primer nacimiento de un ternero a partir de un embrión congelado y más tarde del que llevó a cabo la primera clonación a partir de células embrionarias, los corderos Megan y Morag. Estos experimentos abrieron las puertas a la clonación terapéutica y al estudio sobre las posibles vías de cura de distintas enfermedades.

Ian Wilmut

«Es difícil imaginar un abuso mayor que añadir genes a las generaciones futuras
que cambien la naturaleza de esas personas.»

Clonación de Dolly: el paso a paso

  1. LA GLANDULA MAMARIA En primer lugar, se tomó una célula de la glándula mamaria de una oveja adulta y se le quitó el núcleo junto con el ADN, que es el que guarda la Información necesaria para la clonación.
  2. EL ÓVULO RECEPTOR Luego, a un óvulo de oveja no fecundado, se le extrajo el núcleo y se conservó el citoplasma, que contiene los mecanismos necesarios para fabricar las células.
  3. UNIÓN Y DIVISIÓN Más tarde, por medio de microinyecciones se introdujo el núcleo de la célula mamaria en el citoplasma del óvulo y se aplicó corriente eléctrica para estimular la unión.
  4. GESTACIÓN Y NACIMIENTO La nueva célula se implantó en el útero de una tercera oveja. Luego del período de gestación nació un animal idéntico a la oveja que había aportado la célula mamaria.

Ver: Proyecto Genoma Humano

Historia de la Fisica Moderna Los Descubrimientos y Evolución

Historia de la Física Moderna – Siglos XIX y XX

Temas Relacionados:

1-Que es el Atomo y su Energía
2-Organismo Geneticamente Transformado
3-La Nanotecnología
4-Proyecto Genoma Humano

HISTORIA DE LA FÍSICA MODERNA – SIGLO XIX Y XX:  La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta. Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y la radiactividad,descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

En la época de la electrostática, ya se habían interesado mucho por los fenómenos que acompañan el paso de la electricidad a través de los gases. Después, cuando la antigua máquina de platillo fue reemplazada por la bobina de Ruhmkorff (1803-1877) y la ciencia del vacío se perfeccionó considerablemente gracias a los dispositivos que rehabilitaban la cámara barométrica y al gran empleo del mercurio, fue posible observar lo que pasaba cuando la descarga eléctrica se produjo en una atmósfera gaseosa rarificada.

Estaba reservada a sir William Crookes (1832-1919) realizar el más sensacional de los descubrimientos de su tiempo. Hábil experimentador, Crookes se dedicó a estudiar, a partir de 1878, el paso de la corriente por tubos en los que el gas se reducía a algunas moléculas.

En estas condiciones, el interior de la ampolla no produce ninguna luz «mientras que sus paredes se iluminan con una viva claridad verde». Tras una serie de ingeniosos experimentos, Crookes terminó por demostrar que se trataba de una irradiación particular emitida por el electrodo negativo o cátodo.

Esta irradiación se propaga en línea recta a través del tubo, hace luminiscentes y calienta los cuerpos sólidos que encuentra y hasta ejerce una presión sobre ellos. Todo sucede, en fin, como si unos corpúsculos lanzados a gran velocidad bombardeasen los cuerpos más próximos.

A pesar de todas las ideas admitidas en su tiempo sobre la primacía de las ondas, Crookes tuvo la audacia de pensar que la luz verde que aparecía en las paredes de la ampolla no era otra cosa que un flujo de moléculas materiales lanzadas a gran velocidad. No se equivocaba más que sobre la dimensión de los proyectiles pero volvía a introducir en física una noción pasada de moda y ridiculizada: la emisión. ¿Se habría equivocado Newton?

Entre tanto, todos los laboratorios de Europa se proveían de ampollas de Crookes. Hacia 1880, demostró que los rayos catódicos—así se les llamaba entonces—atravesaban unas delgadas láminas de metal colocadas en su trayecto en el interior de la ampolla y en 1892 con;, guía Lénard hacerlos salir del tubo a la atmósfera sin otro artificio que el de practicar en la ampolla una ventanilla formada por una c; esas delgadas láminas de metal.

Esto equivalía a arruinar la hipótesis de la emisión ya que ningún bombardeamiento molecular podía jactarse de atravesar las paredes, pero ¿y si los proyectiles no eran moléculas? La cuestión quedó zanjada por un experimento decisivo realizado en 1895 por Jean Perrin, entonces preparador en el laboratorio de la Escuela normal superior.

Perrin demostró que los rayos catódicos no son más que granos de electricidad negativa lanzados a gran velocidad a través de la ampolla vaciada. En otros términos: acababa de descubrirse el electrón.

En este mismo año 1895, Roentgen (1845-1923) se entregaba, por su propia cuenta, a experimentos sobre los rayos catódicos cuando, por casualidad, observó que el tubo de Crooke: emitía otro género de irradiaciones. Pues bien: se trataba de un hecho propiamente hablando escandaloso, ya que estos nuevos rayos se propagaban exactamente en línea recta, atravesando los cuerpos opacos y permitiendo fotografiar, a través de la carne, el esqueleto de un ser vivo.

Este descubrimiento estalló algo así comí una bomba en todos los laboratorios del planeta. No era difícil repetir el experimento: un tubo de Crookes, una bobina de inducción, una placa fotográfica envuelta en un papel negro. y una pantalla recubierta de una sustancia fluorescente.

Se hicieron muchas radiografías ; no faltaron los «cobayas». Había dos cosas absolutamente desconocidas a propósito de estar misteriosas radiaciones, a las que inmediatamente se las bautizó como rayos X: primero el tremendo peligro que entrañan por poco que uno se exponga a ellos con demasiado frecuencia. y después su origen. ¿Por qué parte del aparato eran emitidos?

El gran matemático Henri Poincaré expresó la idea que quizá la emisión de rayos X estuviera ligada a la fluorescencia del vidrio herido por los rayos catódicos. En esta teoría coincidían a la vez una verdad y un error; la pared de vidrio emite, en efecto, la misteriosa irradiación, pero esta emisión se opera sin conexión con la florescencia.

La emisión la realizan tan bien o mejor cuerpos que no son en absoluto fluorescentes. Esta comprobación no parecía tener utilidad alguna, pero habría de llevar al descubrimiento de la radiactividad natural.

El 20 de enero de 1896, lunes, día de sesión en la Academia de Ciencias, Henri Poincaré mostró a sus colegas las primeras radiografías hechas en Francia y propuso la teoría antes aludida y según la cual el vidrio de la ampolla de Crookes, hecho fluorescente, había emitido rayos X. Si las cosas se desarrollaban así. sustancias naturalmente fluorescentes como, por ejemplo, el sulfato doble de uranio o de potasio, debían producir espontáneamente rayos X. Es lo que quiso averiguar Henri Becquerel (1852-1908).

Cogió un chasis opaco, de cartón negro, que contenía una placa fotográfica y dos láminas de sulfato doble de uranio y de potasio sujetas por unas tiras de papel. Entre una de ellas y el chasis colocó una moneda de plata y lo expuso todo a los rayos del sol. Al revelar la placa, Henri Becquerel comprobó que aparecían unas huellas correspondientes al emplazamiento de las láminas y de la moneda de plata que absorbían en parte las irradiaciones de las dos sustancias.

¿Quedaba confirmada la hipótesis de Henri Poincaré? ¡Quién sabe! En espera de que llegara un día soleado que tardaba en presentarse, Becquerel encerró todo su equipo en un cajón oscuro. Cuál no sería su sorpresa cuando el 1 de marzo de 1896 quiso asegurarse de que su placa fotográfica estaba todavía virgen.

Impulsado por no se sabe qué curiosidad, la desenvolvió y la encontró impresionada. Ante sus ojos extrañados aparecieron con toda claridad unas sombras que dibujaban las formas de las láminas y mostraban la radiografía de una cruz de cobre muy fina colocada sobre una de ellas. La sal de uranio emitía rayos X tanto en plena oscuridad como a la luz. La fluorescencia no intervenía para nada en el fenómeno. Con una intuición admirable, Becquerel pudo anunciar entonces el hecho de que se trataba de una propiedad atómica independiente de la composición química del elemento uranio.

Acogida al principio con reticencia, esta tesis fue confirmada en febrero del año siguiente por J. J. Thomson y por su joven ayudante Ernest Rutherford, quienes estudiaron también los «rayos uránicos». Gradualmente se iba imponiendo la verdad: las sales de uranio eran una especie de ampollas de Crookes naturales aun cuando nadie sabía decir por qué.

En 1882, Pierre Curie (1859-1906) fue nombrado jefe de trabajos prácticos de la Escuela de física y química. En esta época, este gran científico y su esposa Marie (1867-1934) eran desconocidos del gran público, pero quienes estaban al corriente de los progresos de la física tenían ya a los dos esposos como unos genios.

Pierre Curie se ocupaba de cristalografía cuando la señora Curie tuvo la idea de investigar las propiedades del uranio en los diversos compuestos de este elemento y en los minerales que lo contienen. Algunos de ellos demostraban una actividad mayor aún que la del uranio puro. No era difícil sacar la conclusión de este fenómeno: estos minerales debían contener un cuerpo desconocido más activo que el uranio.

Pierre Curie se dio cuenta inmediatamente de que sus trabajos sobre cristalografía podían esperar un poco y que convenía trabajar sobre los datos recogidos por su esposa. Poco después demostraba la señora Curie la existencia de un cuerpo nuevo: el polonio; después, los dos esposos redoblaron sus esfuerzos y pudieron anunciar, el 26 de diciembre de 1898, que habían descubierto un nuevo elemento que se desintegraba espontáneamente: el radio.

Más aún, Pierre y Marie Curie pudieron establecer muy pronto que el radio se transforma en otros productos radiactivos como el helio, para terminar finalmente en un metal inerte, el plomo. Se había logrado una verdadera transmutación de elementos y este descubrimiento ha revolucionado el mundo.

En el terreno práctico, los resultados obtenidos por Fierre y Marie Curie iban a engendrar una muchedumbre de aplicaciones, sobre todo desde el punto de vista médico, pero hubo que esperar hasta 1912 para que se descubriera al fin en qué consistían los rayos X. Utilizando las redes de moléculas descubiertas por Bravais, cristalógrafo francés del siglo XIX, y cuyas dimensiones del orden de la diezmilésima de miera son lo suficientemente pequeñas como para difractar los rayos X, el físico alemán Max von Laue reconoció al fin que estos rayos pertenecen al mismo grupo que los rayos luminosos ordinarios de los que no se diferencian más que por la extraordinaria rapidez de sus vibraciones.

Son, por así decirlo, hiperultravioleta, y en estas condiciones hubiera tomado nuevo vigor la tesis de las ondulaciones del éter si no hubiera descubierto Planck el fotón en 1898.

Ondas luminosas, rayos gamma y rayos X constituían, no cabía duda, emisiones de fotones. La inexistencia del éter y, por tanto, de sus vibraciones, había sido ya realmente demostrada mucho antes, gracias a un experimento magistral.

En 1887 emprendió Michelson la tarea de demostrar el influjo de la translación terrestre sobre la velocidad de la luz. Algunos años antes, en 1881, el ingenioso experimentador había inventado un interferómetro de una precisión inigualada. Con ayuda de este aparato iba a poderse confirmar o destruir la existencia del éter.

En efecto, si este último es un medio estable que transmite los movimientos vibratorios, los de la onda luminosa o de la onda eléctrica, habría de poderse encomendar el movimiento de dos rayos de luz, uno de los cuales sería dirigido en el sentido de la traslación terrestre, el otro perpendicularmente al plano de este movimiento. O dicho de otra forma, habría de poderse demostrar el desplazamiento absoluto de nuestro globo a través del éter por el complemento de velocidad de que se beneficiaría une de los rayos luminosos.

Ahora bien: la velocidad de la tierra es de unos 30 Km. por segundo, la de la luz de 300.000 Km. por segundo. Er. estas condiciones, el desplazamiento de las franjas luminosas de interferencia debía corresponder a la ínfima diferencia de una cienmillonésima, fracción que representa el cuadrado de la relación entre la velocidad de desplazamiento de la tierra y la velocidad de la luz.

Michelson, con ayuda de su colega Morley. realizó un ingenioso dispositivo compuesto de cuatro espejos, una fuente luminosa y el interferómetro de precisión de que hemos hablado antes. El resultado del experimento fue absolutamente negativo.

El suplemento de 30 Km. por segundo no aceleraba en modo alguno el rayo luminoso que continuaba imperturbablemente su carrera a una velocidad normal de 300.000 kilómetros por segundo. No se necesitaba más para afirmar que no existía el éter. Y de ahí nació toda la teoría de la relatividad.

ALBERT Einstein (1879-1955) hay que considerarle ante todo como matemático, pero como la física es una ciencia que se matematiza cada vez más, la relatividad constituiría para ella una fuente de fecundas explicaciones. En primer lugar, como no puede encontrarse ningún punto fijo en todo el universo, había que admitir que el mundo en que vivimos está construido de tal forma que, en un sistema en movimiento, es imposible evidenciar el desplazamiento de ese sistema y a fortiori, la velocidad del mismo desplazamiento.

A este postulado, o más bien axioma, puesto que parece evidente por sí mismo, añadía Einstein que, cualquiera sea el sistema en traslación a partir del cual se mida la velocidad de la luz, esta velocidad conserva siempre el mismo valor numérico.

En el campo de la astronomía, la introducción de un constituyente limitado en un todo que se creía infinito iba a imponer inmediatamente la noción de un universo cuyas fronteras, siempre móviles, han sido establecidas recientemente sobre la base de un radio de diez mil millones de años-luz.

En física, había que concluir que la inexistencia del éter terminaba con las viejas leyes de la cinemática clásica y que la noción de espacio, tomada aisladamente, ya no tenía ningún sentido. Esto llevó a Einstein a la noción muy abstracta de continuum espacio-tiempo y a la aceptación por parte de los físicos de una hipótesis propuesta ya en el siglo pasado por Riemann y que negaba que el espacio fuese independiente de los fenómenos físicos que se desarrollan en él, lo que necesariamente hacía del tiempo una dimensión del espacio.

La física nuclear ha demostrado en nuestros días que esta noción respondía a la realidad.

Sabemos experimentalmente que la energía posee una masa y que la masa se materializa en energía, principio expuesto por Einstein ya en 1905 y que se resume en esta fórmula clave de nuestro mundo moderno: E = mc2, en la que la energía equivale a la masa multiplicada por un factor correspondiente al cuadrado de la velocidad de la luz.

Los descubrimientos de Einstein no se agotan ahí. Aprovechando las conclusiones impuestas por unos experimentos realizados en 1903 con el tubo de Crookes, Einstein afirmará que la verdadera masa del electrón no es de naturaleza mecánica, sino de naturaleza electromagnética. En estas condiciones, los fenómenos electromagnéticos se imponían a todos los demás y sus leyes vendrían a constituir los principios básicos de la mecánica.

Con la formulación de la relatividad restringida se abre el camino a la tesis que Einstein desarrollará más tarde en forma de una teoría de la relatividad generalizada. Todo esto teniendo en cuenta el concepto del danés Bohr, quien en 1913 rechazará el electromagnetismo clásico en su concepción del modelo de átomo, lo que apunta claramente hacia el camino que más tarde conducirá a los físicos a considerar favorablemente la gran hipótesis del campo unitario.

Al mismo tiempo, una nueva teoría tan desconcertante como la de la relatividad iba a dar al traste con la hermosa noción de continuidad, sobre la que descansaba la física clásica. Se trata, naturalmente, de la teoría de los quanta, formulada muy ingeniosamente hacia 1900 por el gran físico alemán Max Planck por razones puramente experimentales: la famosa emisión de luz por los cuerpos negros, verdadero rompecabezas para los físicos de la época.

Las teorías de Planck revisten un grado tal de abstracción que nos es imposible explicarlas aquí, porque se necesitaría todo un capítulo especial cargado de fórmulas y gráficos. Lo esencial es saber que, según Planck, toda especie de energía es de naturaleza discontinua. O dicho de otro modo: la luz o la electricidad no nos las proporciona la naturaleza en forma de flujo ni de fluido, sino, literalmente hablando, en pequeños paquetes: los quanta. Para no dejar nada al azar, Planck se tomó el cuidado de cifrar con la mayor exactitud las dimensiones de esos paquetitos. En unidad C. G. S., se expresa con el número cuasi infinitesimal de 6,55 X 10-27. No podría irse más lejos, y ésa es, en efecto, la medida exacta de un simple grano de energía simbolizada por la letra h, o constante de Planck.

Los intercambios de energía entre materia e irradiación se hacen, pues, por quanta. La irradiación tiene una estructura discontinua, lo mismo que la emisión, sobre todo la emisión de la luz. Se recordará que apoyándose en la teoría de los quanta descubrió Einstein en 1905 el fotón o grano de luz. Esto produjo un gran escándalo ya que venía a derribar los cálculos de los hombres de ciencia. Si la luz era una emisión de fotones y la electricidad una emisión de electrones, ¿cómo explicar la continuidad que es la ley de las ondas? La dificultad la resolvió en 1924 otro gran genio científico, Louis de Broglie, nacido en 1892 y Premio Nobel de física en 1929.

Como ha dicho él mismo, lo esencial era encontrar un sujeto al verbo ondular. Louis de Broglie pensó que ese sujeto tenía que ser el mismo electrón y no ese éter demasiado metafísico. «Si así fuera, dice el gran científico, habría que pensar que hay que imaginarse los corpúsculos materiales, especialmente el electrón, como acompañados, y en cierto sentido guiados, por una especie de onda». Esta solución de compromiso es la base de la nueva doctrina llamada ondulatoria. Desde ese momento ya no existe el escándalo. «Hoy sabemos que el protón y los núcleos de los átomos, en los que están concentradas las cargas positivas de la materia, están también asociados a ondas… por lo que la barrera que, desde hacía tanto tiempo, separaba la física de las radiaciones de la física de la materia parece haberse derrumbado ya.» Así lo que quiere esta nueva doctrina de una abstracción impresionante. Desde ese momento, la realidad física va a volatilizarse en un «esquema matemático», para servirnos de la expresión de Sommerfeld, y la ciencia, a medida que se va desarrollando, se alejará cada vez más del «antropomorfismo de la sensación».

En 1897, el gran físico inglés Joseph J. Thomson (1856-1940). cuando estaba perfeccionado el experimento de Lénard (1885) sobre los rayos catódicos, descubrió que estos extraños rayos podían ser deflectados por medio de un electroimán. Calculó su velocidad y encontró que era muy próxima a los 300.000 Km. por segundo; después, suponiendo que estaban compuestos de corpúsculos, trató de estimar la masa y la carga de éstos. Pudo establecer que la relación de la carga a la masa de la partícula era una constante independiente a la vez de la naturaleza del gas contenido en la ampolla y del metal de los electrodos. «No veo, dice, forma alguna de escapar a la conclusión de que se trata de cargas de electricidad negativa transportadas por partículas de materia.»

Desde entonces pasó a ser de dominio público el término electrón. En 1909, Robert Millikan, profesor entonces de la Universidad de Chicago, acometió la tarea de demostrar experimentalmente la existencia y la naturaleza de la partícula. El dispositivo que inventó era de una genial sencillez: consistía en una cámara de niebla en la que unas gotitas de aceite en suspensión subían o bajaban según que obedeciesen a la simple gravedad o al impulso de un campo magnético variable. Un excelente aparato óptico permitía observarlas cómodamente. De cuando en cuando, una gotita cambiaba brutalmente de velocidad. ¿No sería porque había capturado un electrón? En este supuesto, como se conocía la masa de la gotita y la intensidad del voltaje, resultaba teóricamente posible deducir la carga del electrón y también su masa. Pero el electrón es tan pequeño que la gotita cargada con veintidós partículas se comportaba exactamente como si sólo estuviese cargada de una. Expresada en culombios, la carga de un electrón implica dieciocho ceros antes de la coma.

En cuanto a la masa, necesita veintisiete ceros antes del primer decimal. Puede suponer-se los esfuerzos que tuvo que hacer el ingeniero físico para llegar a esos resultados, pero de todas maneras, el electrón no era un mito, aun cuando, según la expresión del mismo Millikan, el radio de un cabello comparado con el de mi electrón sea aproximadamente diez mil millones de veces más grande.

El descubrimiento del protón no se realizó oficialmente hasta 1920, pero hacía ya mucho tiempo que rondaba la mente de los científicos. En 1886, el físico alemán Goldstein colocó en el centro  de un tubo de Crookes un ánodo constituido por un enrejado muy fino y no sólo pudo observar la aparición de rayos catódicos, sino también la de una radiación de un amarillo dorado claro que «penetrando el enrejado, llenaba todo el espacio entre el cátodo y la pared.«.

Esta radiación no era otra cosa que una emisión de protones, partículas nucleares cuyo peso es igual al de 1.840 electrones. La irradiación de Goldstein contenía núcleos de nitrógeno puro. Si el gas rarificado de su tubo hubiera sido de hidrógeno, su color hubiese sido rosa, verdoso o grisáceo si hubiese sido de óxido de carbono. En realidad, Goldstein no había hecho más que ionizar el gas de su ampolla, es decir descomponer los átomos de este gas en electrones (rayos catódicos) y en protones (rayos canales).

En 1910 volvió J. J. Thomson a hacer la experiencia y terminó por proyectar los misteriosos rayos canales sobre una pantalla fluorescente en la que producían unas escintilaciones del mismo tipo que las de los electrones.

Con ayuda de un electroimán, el experimentador podía deflectar la irradiación y reunir en una misma parábola las partículas del mismo peso atómico. Entonces se produjo la gran sorpresa. Thomson había utilizado el neón y descubrió que de su cátodo abierto se desprendía una doble radiación positiva. «No cabe duda de que lo que llamamos neón no es un gas simple, sino la mezcla de dos gases, uno de los cuales tiene un peso atómico 20 y el otro un peso atómico 22.» Sin darse cuenta, Thomson acababa de descubrir los isótopos que en 1920 separó entre sí su colaborador Aston con ayuda de su espectrógrafo de masa.

Entre tanto, el estudio de la radiactividad natural iba a llevar a los científicos a realizar una hazaña con la que habían soñado los alquimistas de la Edad Media. En 1903 habían demostrado sir Frederik Soddy y sir William Ramsay que la radiactividad del radio iba acompañada de un desprendimento de helio. En 1907, Rutherford pudo establecer definitivamente la identidad de la partícula alpha con el átomo de helio ionizado, es decir, privado de sus dos electrones satélites, o dicho de otra manera del helio.

En 1919, Rutherford concibió la excelente idea de bombardear átomos de nitrógeno con ayuda de helios que circulaban a gran velocidad y emitidos en forma de rayos alpha por una sustancia muy radiactiva. Observó que de esta forma el nitrógeno se transformaba en oxígeno. Por primera vez, se había roto un átomo y sus elementos constitutivos habían engendrado otro cuerpo simple. ¡La transmutación no era ya un sueño de alquimista! Rutherford había salido airoso donde Bacon y Paracelso habían fracasado.

En 1913 emprendió Niels Bohr (1885-1962) la tarea de cuantificar el átomo. Adoptando el modelo de Ernest Rutherford y Jean Perrin, en otros términos, conservando las órbitas keplerianas circulares como trayecto ideal de los electrones, se dedicó a establecer un valor matemáticamente riguroso de todos los estados posibles de estas partículas ínfimas. Demostró sobre todo que pasando de un estado estacionario n1 a otro estado estacionario n2, el electrón emite un quantum de energía. Acababa de desvelarse el misterio de la electricidad. La experiencia no tardó en confirmar la exactitud de esta aplicación genial de las teorías de Planck. Pero como las órbitas circulares de los electrones presentaban serios inconvenientes, Sommerfeld reanudó en 1916 el trabajo de Bohr dando una forma elíptica a estas órbitas y utilizando los principios de la relatividad para tratar del movimiento de los electrones sobre sí mismos.

Dejemos ya el terreno de la pura teoría para volver a la desintegración del átomo. El principio según el cual se da cierta disipación de masa en algunos bombardeos atómicos, y esto en las condiciones previstas por Niels Bohr y Sommerfeld, iba a conducir a los científicos hacia una pista al mismo tiempo gloriosa y peligrosa. Hacia 1930 se advirtió que cuando se efectuaba una transmutación se liberaba una gran cantidad de energía. En efecto, los núcleos de los elementos formados tienen una masa menor que la de los elementos constitutivos.

Por tanto, hay algo que se disipa durante el proceso. Y si la pérdida de masa equivale al aniquilamiento de un solo gramo de materia, la energía liberada es igual a una cantidad de calor suficiente para hacer hervir instantáneamente 200 millones de litros de agua. En cierto sentido , no había en ello nada de nuevo, ya que no era más que la aplicación de la célebre fórmula de Einstein E = mc2.

Todavía faltaba por encontrar el proyectil que pudiera producir desintegraciones eficaces. Los alemanes Bothe y Becker y los franceses Frederic Joliot e Irene Joliot-Curie estudiaron la desviación sufrida por los rayos alpha cuando atraviesan delgadas capas de materia, y se observó que las partículas alpha que bombardean un metal ligero pero resistente, el berilio, originaban una irradiación paradójica, capaz de romper las más fuerte barreras de potencial y «de moverse libremente a través de la materia», como había predicho Rutherford en 1920. Entonces fue cuando James Chadwick pudo precisar en 1932 que esta irradiación debía estar constituida por partículas neutras de masa próxima a la del protón. Estaba descubierto el neutrón, la bomba atómica y la energía nuclear vendrían más tarde.

Entre tanto se había inaugurado la era de los desintegradores de átomos. Pretender alcanzar los núcleos atómicos con corpúsculos alpha, como lo habían hecho el matrimonio Curie y James Chadwick, equivalía a «disparar con carabina sobre cabezas de alfiler sembradas de 10 en 10 metros». Por supuesto que podían reemplazarse estos corpúsculos alpha por protones, pero, ¿cómo imprimir a éstos una velocidad suficiente? Desde 1931 había en la Universidad de Princeton un generador electrostático inventado por Robert van de Graaff y cuyo principio no difiere sensiblemente del de la máquina deWimshurst.

La aceleración de los protones se produce con ayuda de un transformador de alta tensión, situado en la base del aparato y que alimenta un peine que deposita sobre una correa que desfila bajo sus dientes cargas eléctricas que, transportadas hacia la parte superior del aparato, son recogidas por un peine colector. De esta forma se crea entre la base y la parte superior del dispositivo una diferencia de potencial de 80.000 V. en el primer modelo y llegó a 6 millones de voltios en las bombas del gigante instalado en Round Hill algunos años más tarde.

Ya en 1930, Ernest Orlando Lawrence había realizado otro aparato que habría de destronar poco a poco a los grandes aceleradores lineales: el ciclotrón. El principio es bastante simple: en el centro de un recipiente cilíndrico en el que unas bombas producen un vacío lo más perfecto posible se inyectan partículas atómicas bajo débil energía. Se coloca entre los polos de un electroimán, lo que engendra en su interior un campo magnético intenso.

Las partículas comienzan a girar en círculo, aceleradas a cada vuelta por los electrodos elevados a potenciales de muy alta frecuencia. Atraídas de un electrodo a otro, las partículas describen así una espiral a una velocidad creciente. Finalmente son desviadas hacia un blanco que contiene la sustancia que ha de ser bombardeada y desintegrada: berilio por ejemplo. Nuestros ciclotrones actuales permiten acelerar partículas a velocidades próximas a la de la luz y disponen así de energías suficientes para romper cualquier núcleo de átomo.

En 1932 no podía pensarse aún en estos esplendores. John D. Cockcroft y E. T. S. Walton, en el laboratorio Cavendish, tuvieron que contentarse con un duplicador de voltaje de 150.000 V. A fuerza de ingeniosidad consiguieron obtener 700.000 V. y terminaron por desintegrar núcleos de litio en dos helios, utilizando como proyectiles protones acelerados.

Gracias a la cámara de niebla inventada por C. R. F. Wilson entre 1899 y 1912, las partículas resultantes de la desintegración del litio pudieron ser localizadas por los experimentadores. Todos los manuales de física han reproducido el cliché de la desintegración del litio por Cockcroft y Walton. Todavía hoy nos impresiona este auténtico documento histórico.

El neutrón fue identificado en 1932 por Chadwick. lo que algunos años después permitiría la fisión nuclear. Había nacido un nuevo modelo de átomo. Todo núcleo aparecía como constituido de nucleones, es decir, de partículas positivas: los protones, y de partículas neutras: los neutrones. En torno a este agregado increíblemente denso de nucleones gravitan los electrones satélites cuyas cargas negativas, al menos en un átomo en equilibrio, equivalen rigurosamente a la suma de las cargas positivas de los protones. Sucesivamente, el núcleo del átomo se iría enriqueciendo con partículas ligeras: mesones, neutrinos, etc., sin hablar de las partículas de antimateria de que se hablará más adelante.

Volviendo a la fisión nuclear, el proyectil ideal resultaría ser el neutrón y el blanco elegido el uranio. El 14 de abril de 1934, Enrice Fermi descubrió que los neutrones ralentizados en la parafina provocan otras desintegraciones en el interior de otros átomos. Para llegar a la desintegración en cadena había que frenar la velocidad de los neutrones, transformarlos en neutrones térmicos. Esa es la misión del grafito y del agua pesada; pero no adelantemos los acontecimientos. El 15 de enero de 1934, los esposos Joliot-Curie provocaron la estupefacción de la Academia de Ciencias anunciando que acababan de descubrir la radiactividad artificial. Gradualmente se iban dando los pasos hacia la comprobación de que es posible introducir neutrones suplementarios en el interior de los núcleos y hacer fuertemente radiactivo un inocente fragmento de fósforo, de carbono o de cobalto. Habían nacido los radioisótopos y todo el mundo sabe lo mucho que se los utiliza en medicina y en industria.

No era eso sólo. En 1939 estalló una verdadera bomba en el mundo de la ciencia: Otto Hahn, Lisa Meitner, Strassmann y Frisch habían descubierto que el núcleo del uranio convenientemente bombardeado con neutrones se-rompe en dos liberando una energía de 100 millones de voltios. En su comunicación a la revista británica Nature del día 16 de enero, Lisa Meitner explicaba que, al igual que la gota de agua que ha ido creciendo, el núcleo de uranio no podía ya resistir y… explotaba.

Lo que ha sucedido después es ya del dominio público. No hablaremos de la batalla del agua pesada ni de la angustiosa rivalidad que enfrentó durante cinco años a los Aliados y al III Reich. Recordemos simplemente que a comienzos de 1940, el ingeniero Nier separaba, en la Universidad de Minnesota, del uranio-238 su precioso isótopo, el uranio-235; por supuesto que a una escala infinitesimal. Y que en 1941, el ilustre Fermi, premio Nobel de 1938, se instalaba en Chicago en donde montaba su primera pila atómica, que comenzó a «diverger» el 2 de diciembre de 1942, produciendo por primera vez dos elementos transuranianos: el neptunio y el plutonio, que ya en 1940 habían descubierto McMillan y Seaborg.

Recordemos también el famoso Manhattan Project, la primera explosión atómica del 16 de julio de 1945 en Alamogordo, y finalmente, las hecatombes nucleares de Hiroshima y Nagasaki, los días 6 y 9 do agosto de 1945. Como instrumento de muerte repentina, la bomba A era ya aceptablemente eficaz, pero más lo seria la bomba H «encendiendo sobre la tierra el fuego del sol y de las estrellas».

He aquí algunas explicaciones. Ya en 1934, algunos científicos habían reconocido el principio de la fusión del hidrógeno en helio, como fuente posible de energía. Una simple sustracción bastaba para demostrar que la reacción: 2/H + 2/H = 4/2 He  era «viable». En efecto, dos núcleos de hidrógeno pesado dan en conjunto 4,02516 unidades de masa mientras que el núcleo de helio que resultará de su «fusión» no tiene más que 4,00390. Hay, pues, un excedente de materia; 0,02126 unidad de masa y este excedente se traduce en una liberación de energía correspondiente a 500.000 KW/h. por cada molécula-gramo de helio.

Como esta reacción parecía más bien del dominio de un porvenir muy lejano, nadie habla de ella antes de 1950, excepción hecha del físico Vienes Hans Thirring, quien en 1946 la consagró un estudio bastante notable. En noviembre de 1952, el mundo quedó aterrado al saber que una bomba termonuclear de al menos 7 megatones había estallado en Eniwetok, haciendo desaparecer una isla de la superficie del mar y cavando en su lugar un embudo de 2 Km. de diámetro y 60 m. de profundidad. Después vino la demostración del 1 de marzo de 1954, en la que cinco pescadores japoneses fueron contaminados por la caída del polvo radiactivo (lluvia radiactiva). ¿Esta «Kraftprobe» tuvo el mérito de poner a científicos e ingenieros sobre la pista de un tipo de reactor más rentable que los de uranio que surgen por todas partes propulsando incluso submarinos y rompehielos atómicos? Sólo el futuro nos lo dirá.

La mayor dificultad que hay que vencer es la obtención de una temperatura llamada de fusión del orden de varios centenares de millones de grados; una proeza que es realizable durante una fracción de segundo, por medio de una prebomba de uranio, pero de la que todavía no son capaces ni la ingeniosa Zeta británica ni el extraordinario Slellarator americano.

Sin embargo, los métodos de «striction» y de «confinamiento» de un plasma que consiguen ya de 2 a 3 millones de grados no han dicho su última palabra, aun cuando los progresos hayan sido muy lentos desde 1958.

Volviendo ahora a la física pura, la encontraremos esencialmente ocupada en explorar este mundo extraño que es el núcleo del átomo y esa verdadera fantasmagoría que es la materialización de la energía. ¿Cómo explicar la paradójica densidad del «nucleus» y de las fuerzas que dan cohesión a los nucleones? Nada permite pensar que sean de naturaleza eléctrica.

Cuando en 1935 emitió el físico japonés Yukawa la hipótesis de un intercambio de mesones entre los protones y los neutrones de un núcleo, se vio obligado a admitir que estas partículas debían tener una masa 200 veces mayor que el electrón, pero que su «vida» era muy breve, de apenas una millonésima de segundo.

En mayo de 1937, el estudio de los rayos cósmicos en la cámara de Wilson revelaba la existencia de dos mesones, el segundo de los cuales asegura la cohesión de los nucleones entre sí, mientras que el primero parece escaparse por la banda dando nacimiento a un electrón. Diez años más tarde, durante el invierno 1947-1948, el gran sincrociclotrón de la Universidad de Berkeley consiguió producir mesones ir cuya trayectoria terminaba, sobre la placa fotográfica, en una soberbia estrella, prueba de que el mesón había encontrado un núcleo y que lo había hecho estallar.

¿Qué había sucedido? Entonces surgió la pregunta de si no se habría producido algo más y de si la violencia de la explosión no supondría la presencia de una de esas antipartículas que, por simples deducciones matemáticas, había previsto el físico inglés Pirac en una nota dirigida a la Sociedad Real de Londres con fecha 6 de diciembre de 1929.

La ecuación era tentadora. Podría representársela así:

en la que ¶ es un mesón pesado o, como se dice técnicamente, un hiperón, N un nucleón cualquiera, p un protón normal, es decir positivo, y p´ un protón negativo o antiprotón. Por supuesto que el par p y p´ no podían subsistir juntos sino que se aniquilaban recíprocamente.

En 1935 hubo quien pensó que el intermedio del mesón ¶ no hacía más que complicar las cosas y que, si se dispusiera de unos seis mil millones de electrones-voltios, quizá se pudiera crear directamente un «par» conforme a la fórmula siguiente:

Esta fórmula fue realizada en el laboratorio de Berkeley el 24 de octubre de 1955.

En el estudio de la radiación cósmica, fue una primera figura mundial el meteorólogo español A. Duperier, quien descubrió el «efecto positivo» de la radiación y contribuyó con una de las más importantes aportaciones al campo de la física en los últimos años con el cálculo de los fenómenos de interacción entre las partículas dotadas de altísima energía, y sus trayectorias, que expuso en el Congreso Internacional de Edimburgo de 1958. El descubrimiento del antineutrón, aunque erizado de dificultades, pudo realizarse en una fecha difícil de determinar.

En cuanto al electrón positivo o antielectrón, había sido descubierto antes de la segunda guerra mundial, ya que la obtención de un par (e y é) no exigió más que una energía relativamente baja, del orden de 1.0 millón de electrón-voltios aproximadamente.

El neutrino y el antineutrino han venido a completar la serie de los leptones o partículas ligeras. Atisbado unos veinticinco años antes por el físico Pauli, el neutrino no fue descubierto hasta 1958 gracias a los escintiladores instalados en Savannah River.

¿El neutrino es la partícula que, en el campo gravitatorio, corresponde al electrón en el campo electromagnético? Quien viva lo verá. Entre tanto, los físicos trabajan a contra reloj para descifrar los secretos de la materia y de la antimateria. Enormes aparatos han entrado en funcionamiento, especialmente el gran sincrotrón de protones del CERN (Centro Europeo de Investigaciones Nucleares). En 1961. este instituto procedió a millares de experimentos y tomó millón y medio de clichés que están actualmente en proceso de análisis.

Parece que se trata sobre todo de estudiar las interacciones de altas energías que implican las diversas especies de mesones, ya que ahí es donde en definitiva reside el secreto del átomo y del antiátomo. ¿Hacia dónde se encamina la física? El eminente científico francés Leprince-Ringuet confiesa que no sabe nada al respecto. «Os diré únicamente, declaraba, que estamos trabajando pero sin saber exactamente lo que vamos a hacer y, en el fondo, eso es lo agradable.»

Naturaleza de la Materia                                   Concepto Descriptivo Sobre la Conservación de la Energía

Huxley Enrique Vida y Obra cientifica Biografia Biologo Británico

Huxley Enrique Vida y Obra Científica

Huxley Enrique Vida y Obra cientifica Nacido en Londres en 1825, Huxley estaba destinado a ser uno de los más grandes hombres del siglo XIX. Estudió medicina y, después de graduarse en el Charing Cross Hospital, se incorporó a la Marina Real. En 1846 se nombró a Huxley cirujano ayudante, a bordo del buque real Rattlesnake.

Su barco fue destinado a recorrer la zona de Australia y los mares próximos. Esto dio a Huxley una gran oportunidad para estudiar la vida animal, y fue el punto de partida de sus estudios biológicos.

El viaje duró cuatro años, durante los cuales recogió mucha información acerca de la vida de los animales acuáticos del plancton. Publicó un importante trabajo sobre la estructura y clasificación de los celenterados (las medusas y sus afines), de los que demostró claramente cómo estaban constituidos por dos capas básicas.

Después del viaje, continuó publicando el material recogido, en el que había noticias sobre las ascidias y los pterópodos (mariposas del mar). A la vuelta del viaje del Rattlesnake, Huxley fue nombrado miembro de la Royal Society, en reconocimiento de sus trabajos científicos.

En 1854, se le nombró catedrático de historia natural en la Escuela Real de Minas, y, más adelante, naturalista de la Geological Survey. Aunque continuó publicando artículos sobre los celenterados y otros invertebrados, fue interesándose cada vez más por los vertebrados.

Los peces y reptiles fósiles fueron el tema de una serie de publicaciones hechas a fines de 1850, y, en 1858, Huxley pronunció varias conferencias sobre los orígenes del cráneo de los vertebrados. Durante algún tiempo, Huxley y sus contemporáneos habían sostenido discusiones acerca de la posibilidad de que las especies animales hubiesen evolucionado unas a partir de otras.

Hasta entonces no se habían expuesto teorías satisfactorias, pero en 1859 apareció El origen de las especies, de Darwin. Huxley comprendió en seguida su importancia, ya que la teoría de la selección natural proporcionaba “las hipótesis de trabajo que buscamos”. Durante el resto de su vida, Huxley se esforzó en colaborar para que la teoría de Darwin fuese reconocida por completo. Naturalmente, tropezó con la oposición de la Iglesia y de muchos no científicos, que creían al hombre un ser único.

En 1863, publicó El lugar del hombre en la naturaleza, en el que comparaba  al hombre y a los grandes simios. Demostró claramente las analogías existentes entre ellos, refiriéndolas entonces a los restos  del hombre de Neanderthal, que habían sido encontrados pocos  años antes.

La importancia de los fósiles para la nueva teoría  de la evolución fue inspiración de muchas publicaciones sobre los mismos, durante el año 1860. También escribió Huxley una serie de libros de carácter didáctico, durante este período.

Hacia 1870, estuvo demasiado ocupado en otros asuntos, y no pudo seguir realizando verdadera investigación. Estuvo siempre interesado por la educación, campo en el que obtuvo varios nombramientos. Abrió caminos en la enseñanza de la biología, y su método de selección, conocido con la denominación de “clave zoológica”, se sigue usando todavía hoy. Muchos de sus escritos se encuentran recogidos bajo el título Ciencia y educación, que apareció en 1899.

Fue, durante algún tiempo, secretario de la Royal Society, y también formó parte de varias comisiones que investigaban problemas científicos y educacionales. Se retiro de estas actividades en 1885, y empleó los últimos años de su vida en escribir ensayos sobre filosofía, biología y otras disciplina.

Biografía de Humboldt Alejandro Vida y Obra Cientifica

Biografía de Humboldt Alejandro
Vida y Obra Científica

El barón Federico Enrique Alejandro Humboldt, hijo del camarero del rey de Prusia, nació en Berlín en 1769. Destinado a una carrera política, estudió finanzas en la Universidad de Frankfurt, sobre el Oder.

Pero desde temprana edad demostró que su verdadero interés residía en los reinos de la naturaleza y, en consecuencia, se dedicó al estudio de la geología en Freiburg, anatomía en Jena y hasta astronomía. Su primera publicación, un tratado sobre las rocas basálticas del Rin, apareció en 1790.

A ésta siguió una publicación sobre la flora de las minas de Freiburg (1793), un trabajo acerca de la irritabilidad de las fibras musculares y nerviosas de los animales (1799) y diversos trabajos relativos a la mineralogía.

En 1796 renunció a su puesto oficial de asesor de minas con el fin de dedicar mas tiempo al estudio de la naturaleza, y tres años después organizaba una expedición de exploración científica por Sudamérica.

Durante los cinco años siguientes no solamente exploró una vasta zona de América del Sur, sino que echó las bases de una geografía física y meteorológica en un amplio sentido de las ciencias exactas. Fue el primero en estudiar la proporción en que desciende la temperatura con la altitud, investigación que comprendió la ascensión al Chimborazo y otros elevados picos andinos.

Consideró, asimismo, el origen de las tormentas tropicales y descubrió que la intensidad del magnetismo terrestre disminuye hacia el ecuador (si bien uno de sus rivales reclamaba este descubrimiento). Sus trabajos sobre la distribución geográfica de las plantas y de los animales afectados por las condiciones físicas, fueron los primeros en este campo.

Uno de sus hechos más importantes fue el trazado de un mapa de la superficie terrestre con líneas que unían puntos de igual temperatura media (isotermas), con lo que suministró por primera vez un medio de comparar los estados climáticos de diversas regiones. Sus servicios prestados a la cartografía fueron también considerables.

Sus exploraciones corrigieron muchos errores y llenaron infinidad de claros en el mapa de Sudamérica y mediante cálculos astronómicos determinó cientos de posiciones terrestres. En 1829, Humboldt se embarcó en otra expedición, esta vez al norte de Asia, patrocinada por el gobierno de Rusia. Los principales acontecimientos de estos viajes fueron el examen de los yacimientos de oro y platino y el descubrimiento de diamantes.

Otros trabajos comprendían la colección de ejemplares botánicos y las observaciones magnéticas (el magnetismo terrestre fue uno de sus principales campos de investigación). Los trabajos científicos de Humboldt solían verse interrumpidos por los servicios que prestaba al estado. Ocupó una posición muy elevada en la corte prusiana y a partir de 1830 se le solía distinguir con misiones diplomáticas en la corte del rey Luis Felipe de Francia.

Hasta tal situación resultó beneficiosa para la ciencia, pues Humboldt insistía en la necesidad de que las naciones cooperasen en el campo científico. En este sentido, constituyó un éxito inicial la fundación de una cadena de estaciones magnética y meteorológicas en toda Rusia.

Entre los años 1845 y 1847 aparecieron los dos primeros volúmenes de los últimos y principales trabajos de Humboldt. Se trata de Cosmos, en el cual su autor trata de establecer y describir cuanto concierne al mundo físico. Tal fue la culminación de una idea nacida hacía medio siglo y cuya realización vio demorada repetidamente. El tercero y cuarto de los volúmenes de su obra fueron publicados en 1850 y 1858, en tanto que una parte del quinto apareció como trabajo póstumo.

Falleció en 1859. Resulta difícil estimar el verdadero valor de la contribución científica de este sabio, en parte porque no se le puede atribuir ni un solo gran descubrimiento y en parte porque sus investigaciones abarcan un campo tan amplio. Por ejemplo, hasta encontró tiempo para trabajar con Gay Lussac en la realización de experiencias acerca de la composición química de la atmósfera. Pero no hay ninguna duda de que el interés despertado en Europa como resultado del variado trabajo de Humboldt, contribuyó a la causa de las exploraciones científicas. Como merecido tributo, llevan su nombre varias poblaciones, un río, cadenas de montañas, un glaciar y hasta una corriente marítima.

EL MUNDO FÍSICO DE HUMBOLDT: El espíritu universal de Humboldt lo llevó a predicar una de las doctrinas científicas menos en boga en el siglo XVIII, que le tocó  ver en parte: la cooperación en todos los adelantos. Desde el encumbrado pedestal en que lo colocó la influencia real, Humboldt se dedicó en Prusia, Francia y Rusia a extender una amplia red de fundaciones propulsoras de las exploraciones por América y Asia.

Los cinco volúmenes escritos por Humboldt, abarcan todos los aspectos de la geografía: la matemática o astronómica; la física y la descriptiva o política. Hábil dibujante, Humboldt trazó mapas complementarios de regiones exploradas por él donde se delinearon isotermas (líneas de igual temperatura media). Sus amplias descripciones geográficas son fuente inagotable de valiosas nociones de los climas, altitudes y agentes meteorológicos de todo el Universo.