La Oveja Dolly

Quinua Alimento de los Incas

LAS PATENTES DEL PRIMER MUNDO O LOS DERECHOS DE LOS PUEBLOS

La quinua y la kiwicha son cereales andinos que formaban parte de la dieta de miles de pobladores del Perú, Bolivia y del Noroeste de Argentina, hasta su erradicación por parte de los conquistadores españoles. Se los denomina sustitutos de la can? por su alto contenido en proteínas, y desde la época pre-incaica se cultivaron y domesticaron variedades de quinua adaptadas a las duras condiciones de las montañas.

Debido a su valor nutritivo, actualmente la quinua entró en los mercados estadounidenses y europeos, estimándose las exportaciones bolivianas en un millón de dólares anuales. Pero desde 1994 dos investigadores de la Universidad de Colorado (USA) tramitaron una patente que les da el monopolio exclusivo para la producción de híbridos sobre una variedad de quinua boliviana denominada “Apelawa”.

grano de quinua

¿Qué es una patente? La patente es un monopolio temporario otorgado a aquél que haya introducido una nueva tecnología, y el dueño de la misma tendrá una recompensa económica en relación con la demanda por su invención, Al estar patentado un material se limitan las posibilidades de su uso por el término que dure la patente, bloqueando la investigación científica y la producción, sin tener en cuenta a los investigadores, productores, consumidores, pacientes, y comunidades indígenas.

Si bien solo se pueden patentar ‘invenciones” y no descubrimientos, y hasta los años ‘70 se consideraba que la materia viva no podía patentarse; pero el desarrollo de la ingeniería genética echo por tierra esta concepción, como ya sucede en los Estados Unidos que en 1980 falló a favor del patentamiento de bacterias modificadas genéticamente. Luego, el patentamiento de microorganismos se extendió a plantas y animales: siendo el primero en la lista.., un ratón modificado genéticamente.

En USA todo es patentable es el país que tiene la doctrina más expansiva. Basta que una sustancia natural sea aislada y purificada, para que pueda patentarse; como sucedió con células de codón umbilical. El patentamiento de material biológico, genes y células animales y también humanas, tiene el fin de que nadie pueda hacer uso de ningún producto terapéutico derivado de esos materiales, a menos que pague los derechos correspondientes. Además, cuando la descripción de la investigación se hace de una manera muy amplia, no se puede desarrollar ninguna actividad vinculada con ese material.

As! es que los laboratorios multinacionales hacen espionaje, haciendo averiguaciones entre los indígenas para detectar platas con posibles efectos medicinales con el objetivo final de desarrollar drogas más efectivas. Las patentes son parte de la estrategia de desarrollo de los Estados Unidos, y como cada patente genera un negocio, ninguna de sus universidades difunde sus conocimientos, sin antes pasar por la oficina de patentes.

Afortunadamente, algunos países Sudamericanos están elaborando proyectos de ley para restringir el libre acceso al germoplasma, es decir al conjunto de información genética de todas las especies vegetales de los países en desarrollo o de comunidades indígenas.

La convención sobre diversidad biológica reconoce el derecho soberano de cada país sobre sus recursos genéticos, y todo acceso a ese material tiene que estar sometido al consentimiento previo del gobierno del país, estableciendo que en caso de que hubiere una explotación comercial de esos recursos, habrá que dar participación en los beneficios al país de origen.

Argentina no reconocía patentes para medicamentos, con la previsión de que las patentes se tradujeran en precios muy elevados que hiciera inaccesibles los medicamento para gran parte de la población. Pero en 1994 se aprueba el acuerdo sobre Aspectos Vinculados con el Comercio de los Derechos de Propiedad, que obliga a los países a reconocer patentes en todos los sectores de la tecnología. Este fue un triunfo para las empresas de los países industrializados, y Estados Unidos aplicó sanciones comerciales a Argentina por considerar que nuestra ley no se correspondía con los estándares internacionales.

Por suerte, aún se acepta que los objetos naturales no biológicos como los minerales, el petróleo o el agua pertenecen a los países donde se encuentran sin embargo, casos como el patentamiento de la quinua, obligarla a las poblaciones de La Puna a pagar derechos por un cultivo que vienen realizando desde hace siglos.

¿Qué pasará en el futuro con nuestros propios recursos biológicos? El Estado debería proteger nuestro patrimonio, y valorizar el rol de las universidades y de las investigaciones en Argentina,

Fuente: Bill London  escritor radicado en Idaho

Historia de la higiene personal y de las ciudades en la historia

Historia de la higiene personal y de las ciudades

El escritor Sandor Marai, nacido en 1900 en una familia rica del Imperio Austrohúngaro, cuenta en su libro de memorias Confesiones de un burgués que durante su infancia existía la creencia de que “lavarse o bañarse mucho resultaba dañino, puesto que los niños se volvían blandos”.

Por entonces, la bañera era un objeto más o menos decorativo que se usaba “para guardar trastos y que recobraba su función original un día al año, el de San Silvestre. Los miembros de la burguesía de fines del siglo XIX sólo se bañaban cuando estaban enfermos o iban a contraer matrimonio”.

Esta mentalidad, que hoy resulta impensable, era habitual hasta hace poco. Es más, si viviéramos en el siglo XVIII, nos bañaríamos una sola vez en la vida, nos empolvaríamos los cabellos en lugar de lavarlos con agua y champú, y tendríamos que dar saltos para no pisar los excrementos esparcidos por las calles. 

la higiene humana

  • Del esplendor del Imperio al dominio de los “marranos”

Curiosamente, en la Antigüedad los seres humanos no eran tan “sucios”. Conscientes de la necesidad de cuidar el cuerpo, los romanos pasaban mucho tiempo en las termas colectivas bajo los auspicios de la diosa Higiea, protectora de la salud, de cuyo nombre deriva la palabra higiene.

Esta costumbre se extendió a Oriente, donde los baños turcos se convirtieron en centros de la vida social, y pervivió durante la Edad Media. En las ciudades medievales, los hombres se bañaban con asiduidad y hacían sus necesidades en las letrinas públicas, vestigios de la época romana, o en el orinal, otro invento romano de uso privado; y las mujeres se bañaban y perfumaban, se arreglaban el cabello y frecuentaban las lavanderías. Lo que no estaba tan limpio era la calle, dado que los residuos y las aguas servidas se tiraban por la ventana a la voz de “agua va!”, lo cual obligaba a caminar mirando hacia arriba.

  • Vacas, caballos, bueyes dejaban su “firma” en la calle

Pero para lugares inmundos, pocos como las ciudades europeas de la Edad Moderna antes de que llegara la revolución hidráulica del siglo XIX. Carentes de alcantarillado y canalizaciones, las calles y plazas eran auténticos vertederos por los que con frecuencia corrían riachuelos de aguas servidas. En aumentar la suciedad se  encargaban también los numerosos animales existentes: ovejas, cabras, cerdos y, sobre todo, caballos y bueyes que tiraban de los carros. Como si eso no fuera suficiente, los carniceros y matarifes sacrificaban a los animales en plena vía pública, mientras los barrios de los curtidores y tintoreros eran foco de infecciones y malos olores.

La Roma antigua, o Córdoba y Sevilla en tiempos de los romanos y de los árabes estaban más limpias que Paris o Londres en el siglo XVII, en cuyas casas no había desagües ni baños. ¿Qué hacían entonces las personas? Habitualmente, frente a una necesidad imperiosa el individuo se apartaba discretamente a una esquina. El escritor alemán Goethe contaba que una vez que estuvo alojado en un hostal en Garda, Italia, al preguntar dónde podía hacer sus necesidades, le indicaron tranquilamente que en el patio. La gente utilizaba los callejones traseros de las casas o cualquier cauce cercano. Nombres de los como el del francés Merderon revelan su antiguo uso. Los pocos baños que había vertían sus desechos en fosas o pozos negros, con frecuencia situados junto a los de agua potable, lo que aumentaba el riesgo de enfermedades.

  • Los excrementos humanos se vendían como abono

Todo se reciclaba. Había gente dedicada a recoger los excrementos de los pozos negros para venderlos como estiércol. Los tintoreros guardaban en grandes tinajas la orina, que después usaban para lavar pieles y blanquear telas. Los huesos se trituraban para hacer abono. Lo que no se reciclaba quedaba en la calle, porque los servicios públicos de higiene no existían o eran insuficientes. En las ciudades, las tareas de limpieza se limitaban a las vías principales, como las que recorrían los peregrinos y las carrozas de grandes personajes que iban a ver al Papa en la Roma del siglo XVII, habitualmente muy sucia. Las autoridades contrataban a criadores de cerdos para que sus animales, como buenos omnívoros, hicieran desaparecer los restos de los mercados y plazas públicas, o bien se encomendaban a la lluvia, que de tanto en tanto se encargaba arrastrar los desperdicios.

Tampoco las ciudades españolas destacaban por su limpieza. Cuenta Beatriz Esquivias Blasco su libro ¡Agua va! La higiene urbana en Madrid (1561-1761), que “era costumbre de los vecinos arrojara la calle por puertas y ventanas las aguas inmundas y fecales, así como los desperdicios y basuras”. El continuo aumento de población en la villa después del esblecimiento de la corte de Fernando V a inicios del siglo XVIII gravó los problemas sanitarios, que la suciedad se acumulaba, pidiendo el tránsito de los caos que recogían la basura con dificultad por las calles principales

  • En verano, los residuos se secaban y mezclaban con la arena del pavimento; en invierno, las lluvias levantaban los empedrados, diluían los desperdicios convirtiendo las calles en lodazales y arrastraban los residuos blandos los sumideros que desembocaban en el Manzanares, destino final de todos los desechos humanos y animales. Y si las ciudades estaban sucias, las personas no estaban mucho mejor. La higiene corporal también retrocedió a partir del Renacimiento debido a una percepción más puritana del cuerpo, que se consideraba tabú, y a la aparición de enfermedades como la sífilis o la peste, que se propagaban sin que ningún científico pudiera explicar la causa.

Los médicos del siglo XVI creían que el agua, sobre todo caliente, debilitaba los órganos y dejaba el cuerpo expuesto a los aires malsanos, y que si penetraba a través de los poros podía transmitir todo tipo de males. Incluso empezó a difundirse la idea de que una capa de suciedad protegía contra las enfermedades y que, por lo tanto, el aseo personal debía realizarse “en seco”, sólo con una toalla limpia para frotar las partes visibles del organismo. Un texto difundido en Basilea en el siglo XVII recomendaba que “los niños se limpiaran el rostro y los ojos con un trapo blanco, lo que quita la mugre y deja a la tez y al color toda su naturalidad. Lavarse con agua es perjudicial a la vista, provoca males de dientes y catarros, empalidece el rostro y lo hace más sensible al frío en invierno y a la resecación en verano

  • Un artefacto de alto riesgo llamado bañera

Según el francés Georges Vigarello, autor de Lo limpio y lo sucio, un interesante estudio sobre la higiene del cuerno en Europa, el rechazo al agua llegaba a los más altos estratos sociales. En tiempos de Luis XIV, las damas más entusiastas del aseo se bañaban como mucho dos veces al año, y el propio rey sólo lo hacía por prescripción médica y con las debidas precauciones, como demuestra este relato de uno de sus médicos privados: “Hice preparar el baño, el rey entró en él a las 10 y durante el resto de la jornada se sintió pesado, con un dolor sordo de cabeza, lo que nunca le había ocurrido… No quise insistir en el baño, habiendo observado suficientes circunstancias desfavorables para hacer que el rey lo abandonase”. Con el cuerno prisionero de sus miserias, la higiene se trasladó a la ropa, cuanto más blanca mejor. Los ricos se “lavaban” cambiándose con frecuencia de camisa, que supuestamente absorbía la suciedad corporal.

El dramaturgo francés del siglo XVII Paul Scarron describía en su Roman comique una escena de aseo personal en la cual el protagonista sólo usa el agua para enjuagarse la boca. Eso sí, su criado le trae “la más bella ropa blanca del mundo, perfectamente lavada y perfumada”. Claro que la procesión iba por dentro, porque incluso quienes se cambiaban mucho de camisa sólo se mudaban de ropa interior —si es que la llevaban— una vez al mes.

• Aires ilustrados para terminar con los malos olores

Tanta suciedad no podía durar mucho tiempo más y cuando los desagradables olores amenazaban con arruinar la civilización occidental, llegaron los avances científicos y las ideas ilustradas del siglo XVIII para ventilar la vida de los europeos. Poco a poco volvieron a instalarse letrinas colectivas en las casas y se prohibió desechar los excrementos por la ventana, al tiempo que se aconsejaba a los habitantes de las ciudades que aflojasen la basura en los espacios asignados para eso. En 1774, el sueco Karl Wilhehm Scheele descubrió el cloro, sustancia que combinada con agua blanqueaba los objetos y mezclada con una solución de sodio era un eficaz desinfectante. Así nació la lavandina, en aquel momento un gran paso para la humanidad.

• Tuberías y retretes: la revolución higiénica

En el siglo XIX, el desarrollo del urbanismo permitió la creación de mecanismos para eliminar las aguas residuales en todas las nuevas construcciones. Al tiempo que las tuberías y los retretes ingleses (WC) se extendían por toda Europa, se organizaban las primeras exposiciones y conferencias sobre higiene. A medida que se descubrían nuevas bacterias y su papel clave en las infecciones —peste, cólera, tifus, fiebre amarilla—, se asumía que era posible protegerse de ellas con medidas tan simples como lavarse las manos y practicar el aseo diario con agua y jabón. En 1847, el médico húngaro Ignacio Semmelweis determinó el origen infeccioso de la fiebre puerperal después del parto y comprobó que las medidas de higiene reducían la mortalidad. En 1869, el escocés Joseph Lister, basándose en los trabajos de Pasteur, usó por primera vez la antisepsia en cirugía. Con tantas pruebas en la mano ya ningún médico se atrevió a decir que bañarse era malo para la salud.

Revista Muy Interesante Nro.226- Que Sucio Éramos Luis Otero-
PARA SABER MÁS: Lo limpio y lo sucio. La higiene del cuerpo desde la Edad Media. Georgs Vtgatello. Ed. Altaya. 997.

Alimentos Transgenicos manipulacion genetica de los alimentos

Se denominan alimentos transgénicos a los obtenidos por manipulación genética que contienen un aditivo derivado de un organismo sometido a ingeniería genética; también se llaman así a aquellos que son resultado de la utilización de un producto auxiliar para el procesamiento, creado gracias a las técnicas de la ingeniería genética.

La biotecnología de alimentos aplica los instrumentos de la genética moderna a la mejora de localidad de los productos derivados de las plantas, animales y microorganismos. Desde tiempos remotos, él hombre ha seleccionado, sembrando y cosechado las semillas que permiten la obtención de los alimentos necesarios para el mantenimiento de su metabolismo . De la misma manera, se ha fabricado pan, cerveza, vino o queso sin conocimiento alguno acerca de la ciencia genética involucrada en estos procesos. Desde muy antiguo, los genes de los alimentos han sufrido una modificación, destinada a aumentar sus cualidades benéficas. La biotecnología moderna permite a los productores de alimentos hacer exactamente lo mismo en la actualidad, pero con mayor nivel de comprensión y capacidad selectiva.

En un principio, el hombre se alimentaba de los animales que podía cazar o de las especies vegetales que crecían en su entorno más inmediato, Posteriormente se idearon técnicas para cultivar ciertas plantas. Cuando los primeros seres humanos decidieron establecerse y cultivar sus alimentos, en lugar de vagar para encontrarlos, nacieron la agricultura y la civilización. Con el tiempo, los métodos se han vuelto más sofística-. dos, pero todos los intentos por mejorar los cultivos de alimentos han dependido, del enfoque popular de la naturaleza hacia la producción. Las aves y abejas aún permiten a los reproductores cruzar cultivos con sus parientes silvestres. La reproducción de híbridos desarrolla características deseables, tales como un sabor más agradable, un color más intenso y mayor resistencia a ciertas enfermedades vegetales.

La era de los denominados «alimentos transgénicos» para el consumo humano ddirecto se inauguró el 18 de mayo de 1994, cuando la Food and Drug Adminístration de los  Estados Unidos autorizó la comercialización del primer alimento con un gen «extraño»  el tomate Flavr-Savr; obtenido por la empresa Calgene. Desde entonces se han elaborado cerca de cien vegetales con genes ajenos insertados. Los productos que resultan de la manipulación genética se pueden clasificar de acuerdo con los siguientes criterios:

• Organismos susceptibles de ser utilizados como alimento y que han sido sometidos a ingeniería genética como, por ejemplo, las plantas manipuladas genéticamente que se cultivan y cosechan.

• Alimentos que contienen un aditivo derivado de un organismo sometido ingeniería genética.

• Alimentos que se han elaborado Utilizando un producto auxiliar para el procesamiento (por ejemplo, enzimas), creado gracias a las técnicas de la ingeniería genética. Este tipo de sustancias suelen denominarse alimentos recombinantes. Para incorporar genes foráneos comestibles en la planta o en el animal, es preciso introducir vectores o «parásitos genéticos», como plásmidos y virus, a menudo inductores de tumores y otras enfermedades —por ejemplo, sarcomas y leucemias…… Estos vectores llevan genes marcadores que determinan la resistencia a antibióticos como la kanamicina o la ampicilina, que se pueden incorporar a las poblaciones bacterianas (de nuestros intestinos, del agua o del suelo). La aparición de más cepas bacterianas patógenas resistentes a antibióticos constituye un peligro para la salud pública.

Existen diferentes alternativas para conseguir la mejora vegetal mediante la utilización de la ingeniería genética. En el caso de los vegetales con genes antisentido, el gen Insertado da lugar a una molécula de mRNA que es complementaria del mRNA de la enzima cuya síntesis se quiere inhibir. Al hibridarse ambos, el mRNA de la enzima no produce su síntesis. En el caso de los tomates Flavr-Savr la enzima cuya síntesis se inhibe es la poligalacturonasa responsable del ablandamiento y senescencia del fruto maduro. Al no ser activo, este proceso es muy lento, y los tomates pueden recolectarse ya maduros y comercializarse directamente Los tomates normales se recogen verdes y se maduran artificialmente antes de su venta, con etileno, por lo que su aroma y sabor son inferiores a los madurados de forma natural. En este caso, el alimento no Contiene ninguna proteína nueva.

La misma técnica se ha utilizado para conseguir soja con un aceite de alto Contenido en ácido oleíco (89% o más, frente al 24% de la soja normal), inhibiendo la síntesis deja enzima oleato desaturasa. La introducción de genes vegetales, animales o bacterianos da lugar a la síntesis de proteínas específicas. La soja resistente al herbicida glifosato, Contiene un en bacteriano que codifica la enzima 5-enolpiruvil-shikimato-3-fosfato sintetasa. Esta enzima participa en la síntesis de los aminoácidos aromáticos y la propia del vegetal es inhibida por el glitosato; de ahí su acción herbicida. La bacteriana no es inhibida.

El maíz resistente al ataque de insectos contiene un gen que codifica una proteína de Bacillus thuringiensis, que tiene acción insecticida al ser capaz de unirse a receptores específicos en el tubo digestivo de determinados insectos, interfiriendo con su proceso de alimentación y causándoles la muerte. La toxina no tiene ningún efecto sobre las personas ni sobre otros animales. La utilización de plantas con genes de resistencia a insectos y herbicidas permite reducir el uso de plaguicidas y conseguir un mayor rendimiento. Además, se ha obtenido una colza con un aceite de elevado contenido en ácido laúrico, mediante la inclusión del gen que determina la síntesis de una tioesterasa de cierta especie de laurel. Los vegetales resistentes a los virus se consiguen haciendo que sinteticen una proteína vírica que interfiere con la propagación normal del agente infeccioso. Estos vegetales contienen proteína vírica, pero en menor proporción que las plantas normales cuando están severamente infectadas.

Los vegetales transgénicos más importantes para la industria alimentaria son, por momento, la soja resistente al herbicida glifosato y el maíz resistente al insecto conocido como taladro. Aunque en algunos casos se emplea la harina, la utilización fundamental del maíz en relación con la alimentación humana es la obtención del almidón, y a partir de éste, de glucosa y de fructosa. La soja está destinada a la producción de aceite, lecitina y proteína.

Beneficios de la biotecnología de alimentos

Estas nuevas técnicas auguran posibilidades reales de optimizar la producción de alimentos. El método mencionado en el caso de los tomates —cosechados para el con-, sumo directo, sin necesidad de que maduren artificialmente en cámaras— se está aplicando al cultivo de melones, duraznos, plátanos y papayas de mejor sabor, y a flores recién cortadas, cuya duración se prolonga. Más concretamente, la biotecnología influirá positivamente en los siguientes aspectos:

• Mejor calidad de los granos en semilla.

• Mayores niveles de proteínas en los cultivos de forrajes.

• Tolerancia a sequías e inundaciones

‘•Tolerancia a sales y metales.

• Tolerancia al frío y al calor.

Los experimentos de manipulación genética aplicados a  producción de maíz han arrojado un balance positivo en la actualidad el maíz y la soja son los vegetales transgénicos más importantes para la industria alimentaria.

Riesgos de la Biotecnología de los alimentos

La introducción de genes nuevos en el genoma de la planta o del animal manipulado provoca transformaciones impredecibles de su funcionamiento genético y de SU metabolismo celular; el proceso puede acarrear la síntesis de proteínas extrañas para el organismo —responsables de la aparición de alergias en los consumidores…..; la producción de sustancias tóxicas que no están presentes en el alimento no manipulado, así como alteraciones de las propiedades nutritivas (proporción de azúcares, grasas, proteínas, vitaminas, etc.).

Hay suficientes peligros reales como para afirmar que estos alimentos no son seguros. Las experiencias pasadas con biocidas como el DDT, aconsejan una prudencia extrema. Junto a los riesgos sanitarios, la amenaza para el medio ambiente es, incluso, más preocupante La extensión de Cultivos transgénicos pone en peligro la biodiversidad del planeta potencia la erosión y la contaminación genética, además del uso de herbicidas (un importante foco de contaminación de las aguas y de los suelos de cultivo). Según un informe de la OCDE, el 66% de las experimentaciones de campo con cultivos transgénicos que se realizaron en años recientes estuvieron encaminadas a la creación de plantas resistentes a herbicidas La Agencia de Medio Ambiente de Estados Unidos advierte de que este herbicida de amplio espectro ha situado al borde de la extinción a una gran variedad de especies vegetales del país; por otro lado, está considerado uno de los más tóxicos para microorganismos del suelo, Como hongos, actinomicetos y levaduras.

Otra de las preocupaciones fundadas es el posible escape de los genes transferidos hacía poblaciones de plantas silvestres, relacionadas con dichos cultivos transgénicos, mediante el flujo de polen: la existencia de numerosas hibridaciones entre si todos los cultivos transgénicos y sus parientes silvestres ha sido bien documentada La introducción de plantas transgénicas resistentes a plaguicidas y herbicidas en los campos de cultivo conlleva un elevado riesgo de que estos genes de resistencia pasen, por Polinización cruzada a malas hierbas silvestres emparentadas creándose así las denominadas «súper malas hierbas», capaces de causar graves daños en plantas y ecosistemas naturales.

A su vez, estas plantas transgénicas con características nuevas pueden desplazar a especies autóctonas de sus nichos ecológicos. La liberación de organismos modificados genéticamente al medio ambiente tiene consecuencias a menudo imprevisibles, pues una vez liberados —el animal o la planta —,se reproducen y se dispersan por su hábitat, imposibilitando cualquier control.

La Terapia Genética Manipulación de Genes Biología Celular

La terapia genética es la técnica que permite la localización exacta los posibles genes defectuosos de los cromosomas y su sustitución por otros correctos, con el fin de curar las llamadas «enfermedades genéticas», entre las que se encuentran muchos tipos de cáncer.

El desarrollo de la terapia genética se ha apoyado en los avances científicos experimentados por determinadas ramas de la biología, como la genética, la biología molecular, la virología o la bioquímica. El resultado es una técnica que permite la curación de casi cualquier patología de carácter genético.

En el desarrollo de dicha terapia hay que tener en cuenta diversos factores. Por un lado, es necesario saber cuál es “tejido diana”, es decir, el que va a recibir la terapia. En segundo lugar, conocer si es posible tratar in situ el tejido afectado. Igualmente importante resulta determinar el que facilita el traspaso de un gen exógeno a la célula, es decir, qué vector se ha elegir para el desarrollo del nuevo material genético que posteriormente se introduce el tejido. Finalmente, es preciso estudiar al máximo la eficacia del gen nuevo y saber que respuesta tendrá el órgano o tejido «hospedador», con la entrada del gen modificado.

La finalidad principal de los estudios sobre terapia génica en el ámbito de la medicina es conseguir los mejores resultados tanto en prevención como en investigación, diagnóstico y terapia de las enfermedades hereditarias; sin embargo, esta manipulación del material genético puede ser utilizada en ingeniería genética, con el fin de mejorar determinadas características de los seres vivos.

Los inicios de la terapia génica

Los primeros trabajos en terapia génica se realizaron con ratones, mediante tecnica del ADN recombinante, que consiste en introducir el ADN extraño en los embriones, de forma que dicho ADN se expresa luego completamente, a medida que desarrolla el organismo. El material genético introducido se denomina transgén; los individuos a los que se les aplica esta técnica reciben el nombre de transgénicos. Con la introducción de estos transgenes se puede lograr la identificación de zonas concretas del material genético para llevar a cabo su cloonación, con el fin de que solo se vean afectadas un tipo específico de células.

Vectores

Los vectores virales agrupan cuatro tipos de virus: retrovírus, adenovirus, virus adnoasociados y herpesvirus; existen también vectores no virales, como el bombardeo con partículas, la inyección directa de ADN, los liposomas catiónicos y la transferencia de genes mediante receptores.

Vectores virales

Los retrovirus comprenden una clase de virus cuyo material genético es una cadena sencilla de ARN; durante su ciclo vital, el virus se transcribe en una molécula bicatenaria de ADN, gracias a la acción de la enzima reverso transcriptasa, que se integra en el genoma de la célula huésped sin aparente daño para ella. La mayor parte de los retrovírus a excepción del HIV, sólo se pueden integrar en células con capacidad para replicarse, lo cual restringe su uso. Sin embargo, se pueden desarrollar en grandes cantidades y su expresión en la célula hospedadora se realiza durante largos periodos de tiempo. Los adenovirus son un conjunto de virus con ADN lineal de cadena doble. Los vectores de adenovirus son más grandes y complejos que los retrovirus, pues en su construcción solamente se elimina una pequeña región del material genético vírico. Su ciclo de infección, que comprende de 32 a 36 horas en un cultivo celular conlleva en primer lugar la síntesis de ADN de la célula y, posteriormente la sintesis y ensamblaje del ADN y las proteínas víricas. Las infecciones de estos virus en seres humanos están asociadas a enfermedades benignas, como la conjuntivitis.

La principal ventaja de su utilización en la terapia génica es que se pueden producir en grandes cantidades y transfieren de forma muy eficaz el material genético a un número elevado de células y tejidos, aunque el hospedador parece limitar la duración de la expresión del nuevo material genético.

Los virus adeno-asociados son muy pequeño no autónomos y con ADN lineal de cadena sencilla. Para la replicación de estos virus es necesaria la confección con adenovirus. La inserción del material genetico de los adenovírus asociados se suele producir en regiones del cromosoma 19. Los vectores que se forman con este tipo de virus son muy simples, no pueden exceder en mucho la longitud del ADN viral, aproximadamente 4.680 nucleótidos, y son capaces de expresarse a largo plazo en las células que no se dividen; sin embargo, la respuesta que producen en la célula hospedadora es menor que la que se ocasiona con el tratamiento con adenovirus y es difícil la producción de este vector en grandes cantidades. Los herpesvirus poseen un material genético compuesto por ADN de doble cadena lineal, con un tamaño aproximado de 100 a 250 Kb.

Presentan variaciones en cuanto al tamaño y organización del genoma, contenido genético o células sobre las que actúan. Pero por regla general, este tipo de  de virus son muy útiles, pues es posible insertar en su genoma grandes cantidades de ADN extraño y llevar a cabo durante largos periodos de tiempo infecciones latentes en la célula hospedadora, sin ningún efecto aparente sobre ésta. En la clase de los gamma-herpesvirus como el virus de Epstein-Barr, se pueden producir infecciones latentes en células en  división, de modo que el material genético que lleva insertado el virus se replica conjuntamente a la división celular y se hereda en toda la nueva progenie de células. El inconveniente que presentan estos virus es que están asociados a daños linfoproliferativos, con lo cual, para su uso como vectores es necesario identificar estos genes y eliminarlos, manteniendo únicamente aquellos que permitan la replicación del virus y el mantenimiento del plásmido viral. Hasta la fecha, el uso fundamental de los herpesvirus en la terapia génica se limita al empleo in vivo del herpes simples (HSV).

Vectores no virales

El bombardeo de partículas constituye una técnica efectiva de transferir genes tanto in vitro como in vivo. En este método físico el plásmido o porción de ADN es recubierto en su superficie por gotas de oro o tungsteno, de 1 a 3 micras de diámetro. Estas partículas, aceleradas por una descarga eléctrica de un aparato o por un pulso de gas son «disparadas» hacia el tejido. El éxito de esta técnica puede estar asegurado en los procesos de vacunación. Otra alternativa es la inyección directa del ADN o ARN puro circular y cerrado covalentemente, dentro del tejido deseado. Este método económico, y un procedimiento no tóxico, si se compara con la entrega mediante virus. Como desventaja fundamental hay que señalar que los niveles y persistencia de la expresión de genes dura un corto periodo de tiempo.

Esta tecnologia puede tener potencial como un procedimiento de vacunación y como e genes a un nivel bajo. Los liposomas catiónicos consisten en la mezcla de un  lipido catiónico de carga positiva y varias moléculas de ADN con carga negativa debido a los fosfatos de la doble hélice.

Este tipo de  vectores se han usado en el tratamiento de la fibrosis sistica y en las enfermedades  vasculares. Se pueden realizar transferencias de estos vía catéter, aunque su uso es limitado, dedido a la baja eficacia de transfección del material genético contenido en este complejo a la célula hospedadora ya su relativa toxicidad.

Un problema que se plantea con las técnicas anteriores es que el vector alcance realmente su objetivo y no quede diseminado por el organismo. Por ello existe un procedimiento que consiste en introducir, junto al material genético que queremos transferir, moléculas que puedan ser reconocidas por los receptores de la célula diana. Estas moléculas pueden ser azucares, péptidos, hormonas, etc. y su ventaja respecto a otros modelos es que se establece una interacción muy específica, como la interacción transportador/célula, y no muy inespecífica como la que se verifica entre las cargas iónicas.

Experimentos en animales

Los experimentos con animales conforman una parte fundamental en el estudio de cualquiera de las aplicaciones de terapia génica; sus dos objetivos principales son el análisis de la seguridad del sistema de vectores y el estudio de la eficacia de la transferencia de genes.

El efecto de la dosis y su duración es comprobado en varias especies, incluyendo primates y otros animales que sean hospedadores para el virus salvaje (por ejemplo, las ratas del algodón se usan para el estudio de adenovirus). Se analiza la difusión de secuencias vitales, especialmente a las gónadas, y cualquier efecto adverso, como la inflamación tras la administración del vector.

El propósito de estos ensayos no es mostrar que el vector no produce efectos adversos —cualquier clase de droga tiene esa capacidad en determinada dosis—, sino precisar el tipo de suceso adverso que podría esperarse si los humanos estuvieran expuestos al vector, y fijar las posibles dosis que pueden acarrear estos sucesos. Para una enfermedad genética, un ratón con un gen eliminado o un animal con el fenotipo apropiado sería válido en este tipo de estudio.

Terapia génica en seres humanos

Esta terapia está destinada al tratamiento de enfermedades infecciosas y auto inmunes, Las estrategias se basan en la eliminación de poblaciones de células infectadas con virus, como el HIV, mediante administración directa de moléculas de ácidos nucleicos o a través del desarrollo de vacunas. En la terapia contra el cáncer, se puede actuar con diferentes objetivos. Si se opera sobre las células del sistema inmunitario, se manipulan ex vivo las células efectoras antitumorales del sistema inmune. Estas células son modificadas genéticamente y reimplantadas con el fin de liberar dentro del tumor el producto de los genes exógenos, como las cítoquinas.

Sobre las células hematopeyéticas o formadoras de sangre se actúa incorporando los llamados genes MDR, que confieren mayor resistencia a las altas aplicaciones de quimioterapia en el paciente. Si se actúa directamente sobre las células tumorales, se introducen factores genéticos que provoquen la muerte o apoptosis de las células tumorales o aumenten la respuesta del sistema inmunitario antitumoral del paciente.

Otro de los campos más promisorios de las terapias génicas es el de las inmunoterapias y la fabricación de vacunas biotecnológicas.

Recordemos que nuestro organismo está sometido a múltiples agresiones de parásitos, bacterias y virus. El sistema inmunitario debe clasificar a esos agresores y armar una respuesta efectora capaz de eliminarlos.

■ En el caso de las bacterias extracelulares y de sus productos tóxicos, la respuesta eficaz consiste en la producción de anticuerpos opsonizantes o neutralizantes.

■ Si se trata de bacterias intracelulares (como los micoplasmas) que se replican en el interior de los fagosomas, la respuesta más contundente corre a cargo de las células T que activan los fagocitos en los procesos de hipersensibilidad retardada.

■ Por último, ante una infección vírica, si bien los anticuerpos específicos podrían limitar la difusión del virus a otras células, sólo una respuesta citotóxica (por los linfocitos T citotóxicos) acabará con las células infectadas y erradicará el virus.

Con la vacuna quedamos expuestos a “un material biológico” que imita al agente infeccioso. Por eso, el sistema inmunitario desencadena la resistencia ante el patógeno y lo memoriza, sin experimentar la infección ni la enfermedad. El proceso se asemejaría a introducir en el organismo un “chip” de memoria con determinadas instrucciones. Para vacunar contra un patógeno, se inocula en el organismo un microorganismo muerto (vacuna muerta), un microorganismo vivo pero incapacitado para desencadenar la enfermedad (vacuna viva atenuada) o una porción purificada del patógeno (vacuna subunitaria).

A partir de la Ingeniería genética y la Biotecnología, se perciben tres áreas prometedoras en el campo de la vacunación: la administración de vacunas a través de las mucosas, las vacunas de ADN y las vacunas terapéuticas.

Éstas nuevas técnicas permitirán curar enfermedades como la hepatitis B, el papilomavirus, el herpes genital e incluso el sida. La Biotecnología está proporcionando, entonces, un potencial ilimitado para el desarrollo de nuevas vacunas y, con ello, se está ampliando el campo de acción de la vacunación, además de presentar vehículos efectivos para el tratamiento de determinados tumores y enfermedades virales, lo que puede cambiar la relación del ser humano con las enfermedades del próximo siglo.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe) – Wikipedia – Enciclopedia de la Vida Tomo I.

Accion del Medio Ambiente en la Vida del Hombre Adaptacion Humana

Adaptación del Hombre Al Medio Ambiente
Acción del Medio Ambiente

LA VIDA DEL HOMBRE SEGÚN SU MEDIO AMBIENTE: Si analizamos el tipo de vida de los habitantes de una región cualquiera podemos advertir fácilmente la estrecha relación que mantiene con el medio geográfico. Muchas regiones poseen actualmente una población económicamente poco desarrollada , debido a las condiciones desfavorables del medio. Esto es lo que ocurre en las selva, en la tundra , y en los desiertos, regiones donde el paisaje natural apenas ha sido afectado por la actividad de la población, que vive bajo la influencia aplastante de una naturaleza hostil.

En las regiones donde el medio se ha mostrado más acogedor se ha desarrollado notablemente la civilización y el hombre parece haber logrado un ajuste favorable con la naturaleza. Este ajuste, sin embargo, no ha sido fácil, porque para alcanzarlo ha debido el hombre trabajar intensamente. Pero ni aun el trabajo humano hubiera sido suficiente para libertar totalmente al hombre de su medio.

medio ambiente y el hombre

El hombre civilizado necesita de todo el rendimiento de su inteligencia en forma de invenciones, descubrimientos, avances en el conocimiento de las leyes de la naturaleza y el mejoramiento de su organización social, para multiplicar la efectividad de su esfuerzo. Todo este progreso tecnológico, propio de nuestra civilización industrial, ha permitido al hombre moderno utilizar las ventajas que la naturaleza le ofrece y sortear los obstáculos que le presenta.

El hombre civilizado ha podido crear el paisaje cultural de muchas regiones derribando los bosques, exterminando los animales dañinos y domesticando los útiles, irrigando las tierras secas, drenando ciénagas, construyendo puentes y embalses, fabricando redes de ferrocarril y carreteras y tendiendo instalaciones telefónicas y eléctricas. Ha construido ciudades, puertos y fábricas, creado instituciones sociales, dictado leyes y desarrollado las industrias, pero el hombre no ha dominado todavía, ni dominará nunca, el medio geográfico.

Las grandes características de la superficie terrestre y los procesos de la naturaleza que constituyen los elementos fundamentales del paisaje natural, permanecen invariables después de más de un millón de años de haber aparecido sobre la tierra los primeros seres semejantes al nombre.

El progreso de la humanidad es, pues, el resultado no de la conquista de la naturaleza por el hombre, sino de que el hombre ha ido comprendiendo mejor la naturaleza y ha colaborado inteligentemente con ella. Al basar su economía sobre las leyes naturales, de acuerdo con las características geográficas de cada región, el hombre ha logrado una mayor producción y, por lo tanto, un nivel de vida más alto.

La habitación humana. Además de alimentación y vestido, el hombre necesita descansar diariamente, entregándose al sueño. Desde su aparición sobre la tierra el hombre necesitó un refugio para estas horas en que podía estar a merced de los animales o de otros hombres. Las ramas más altas de los árboles y las cavernas debieron ser sus primeras habitaciones. Más tarde el hombre comenzaría a construir su vivienda de acuerdo con los recursos que el medio le ofrecía.

La adaptación de la habitación a las condiciones del medio es uno de los hechos geográficos más evidentes, pues el tipo de vivienda está estrechamente influenciado, entre otros factores, por el clima y la vegetación, así como por el tipo de ocupación de nivel de civilización de los habitantes de cada región.

En las regiones de clima frío las paredes de las casas son gruesas, presentan muchas ventanas para dar paso a la luz y los techos son muy inclinados para que no retengan la nieve. En las latitudes medias las casas poseen menos ventanas y los techos son menos inclinados; en las regiones de clima mediterráneo las casas son relativamente pequeñas, pintadas de blanco o de colores claros y los techos son casi siempre horizontales En las bajas latitudes hay la tendencia a construir grandes corredores en torno a las casas, y patios centrales para aliviar el fuerte calor.

Las casas difieren tanto por su forma como por sus materiales, ya que el hombre debe adaptar su construcción a los recursos disponibles en la región. Esta variedad incluye casas de madera, de piedra, cavernas excavadas en las rocas, casas de adobe, tiendas de pieles, chozas de techo de paja, iglús de hielo y rascacielos de acero y concreto.

La casa de madera predomina en las regiones de bosques. En algunos casos, como en los templos del Japón, las construcciones de madera alcanzan enorme tamaño. En Suecia y Noruega, en el norte de Rusia y de Canadá, y en Alaska, los bosques de coníferas suministran madera para la construcción de las casas. En el sur de Estados Unidos, predominan todavía las casas de madera.

En las zonas que bordean el Mediterráneo, en cambio, donde el bosque es de poco rendimiento  y hay abundancia de rocas como la arenisca y la arcilla, predominan las casas de piedra; y en algunas zonas del sur de Europa se encuentran muchas casas construidas perforando las rocas, en forma de cavernas artificiales.

En las regiones áridas, donde la madera y la piedra escasean, es costumbre construir las casas con ladrillos de arcilla secada al sol. En la antigua Mesopotamia se construía ya en esta forma y el método se mantiene en el Oriente Próximo, en el norte de África y aun en China. Las casas de adobe de los indios pueblos del Suroeste de Estados Unidos, son excelentes ejemplos de este tipo de habitación.

En las estepas, donde todavía los pastores nacen la vida nómada, se encuentran las tiendas de pieles o fieltro. Las yurtas o tiendas redondas de los mongoles pertenecen a este tipo de habitación, fácil de armar y desarmar y de transportar.

En las bajas latitudes, en regiones cálidas y lluviosas, es común la casa construida de maderas y cubierta de hojas secas de palma. Este tipo de construcción se encuentra en América, África, en el sureste de Asia y en las islas del Pacífico.

Los pueblos pescadores primitivos que vivían en las márgenes de los lagos fabricaban sus casas sobre pilotes, encima del agua. Estos palafitos se encuentran aún entre los pueblo aborígenes de distintas regiones.

Los esquimales construyen sus casas permanentes de piedra y tierra para el invierno, pero pueden construir en pocos minutos refugios temporales de hielo (iglús). En los cortos veranos árticos viven en tiendas de pieles.

El desarrollo de la civilización ha estimulado el crecimiento de las ciudades. Al aumentar el valor de la tierra la tendencia actual en las grandes ciudades, es a fabricar casas más altas, para ahorrar espacio. El ejemplo más característico de este crecimiento vertical de la habitación humana lo ofrece la ciudad de New York con sus numerosos rascacielos.

Condiciones Para La Vida en el Planeta Factores Ambientales Basicos

la vida en el planeta

TEMA RELACIONADOS

La Aparición De La Vida
La Teoría De La Evolución De Charles Darwin
La Terapia Genética
La Eutanasia o Muerte Digna
El Origen Del Hombre En El Planeta
El Proyecto Genoma Humano

La Clonación Humana y Animal
La Eugenesia o Reproducción de las Mejores Especies 

LA VIDA EN EL PLANETA TIERRA: Separar el mundo inerte del mundo organizado parecía, hasta nace pocos lustros, una tarea muy sencilla: un elefante es un ser vivo y una roca no. Mas al profundizar en el conocimiento de los seres infinitamente pequeños, se llega a dudar y se ve como algo sumamente confuso la línea divisoria entre los dos mundos. Hay cuerpos que no es posible determinar de un modo claro si son seres vivos o moléculas inorgánicas muy complicadas. Pertenecen al mundo de las proteínas.

Los virus, por ejemplo, son microbios sumamente pequeños. El productor de la poliomielitis, que tantos quebraderos de cabeza ha proporcionado a médicos y biólogos, mide una centésima de miera. Son necesarios, por tanto, 100.000 de ellos puestos en fila para formar un milímetro. Se comprende que sólo el microscopio electrónico haya sido capaz de hacerlos visibles.

Las nucleoproleínas, sustancias químicas formadas por moléculas sumamente complicadas, en algunos casos se comportan exactamente igual que los virus y se ha llegado a dudar si son seres vivos o sólo compuestos químicos. Los doctores Fraenkel y Williams, de los Estados Unidos, afirmaron que hablan obtenido en sus laboratorios nucleoproteínas vivas por síntesis, es decir, hablan creado vida, pero en una forma tan rudimentaria., que sólo podían existir sobre otras materias vivas. Se trataba, por tanto, de algo que está en la borrosa línea que separa lo vivo de lo inerte.

Pero esta imitación o creación de vida simplicísima en el laboratorio se halla a gran distancia de la complejidad de un ser vivo tan sencillo como puede ser una ameba o un hongo.
Se conocen las manifestaciones de la vida y se señalan sus notas características, pero los científicos están acordes en no saber qué cosa es en sí la vida.

Porque ésta presupone, además de una cierta organización de los elementos que forman el cuerpo vivo, la unidad de intención, es decir, la tendencia por la que todas las partes contribuyen a una finalidad. En un huevo, por ejemplo, se encuentran uña serie de sustancias (azúcares, grasas, proteínas y agua) que son los compuestos orgánicos indispensables para que exista la vida.

Éstos tienden a transformarse en un polluelo, que es un microcosmos complicadísimo en el que billones de células trabajan ordenadamente para cumplir ese fin o tendencia que da por resultado un pollo adulto. ¿Por qué no se descomponen dichas sustancias y dan lugar a carbono, hidrógeno, oxígeno, nitrógeno y pequeños rastros de fósforo, azufre, calcio, etc.? ¿Por qué tienden a complicarse en lugar de descomponerse?

En esta tendencia, que supone organización, se encuentra oculto el gran secreto de la vida.

Los cuatro grandes elementos del mundo viviente son el Carbono, el Oxígeno, el Hidrógeno, y el Nitrógeno. Sin ellos no puede existir vida alguna y es tan importante el papel que juegan en la Biología, que el 99 % de todo ser vivo está formado por estos cuatro cuerpos simples.

En el mundo impera una ley implacable de cambio, de evolución, que somete a todas las cosas y resulta imposible de evitar y menos prever en cuanto a su duración y término. En los seres inertes, la erosión, los elementos atmosféricos, la gravedad, etc., determinan este desgaste continuo que se da en las montañas, en los monumentos y en cualquier obra humana o de la naturaleza.

Los seres inertes no pueden luchar contra este desmoronamiento constante y fatal, pero los seres vivos sí, y para evitarlo se nutren y asimilan sustancias que les son necesarias. Durante su infancia y juventud, esta asimilación les proporciona energía suficiente no sólo para vivir, sino para crecer. Es en la vejez cuando la nutrición no es suficiente para detener la caída del ser vivo hacia la muerte, donde se precipita por un proceso natural, de desasimilación, pérdida y decadencia.

Los seres vivos necesitan, pues, extraer del ambiente los cuatro elementos antes citados y que permitirán al laboratorio de su cuerpo transformarlos en sustancia propia.

La asimilación del Oxígeno y del Hidrógeno por entrar estos elementos en la formación del agua, no constituyen problema, pero ni el Carbono, ni el Nitrógeno pueden captarse directamente del mundo natural. Los procesos por los cuales los seres vivos se ingenian para apropiarse estos elementos y el ciclo de cambios constantes por los que pasan de unos vivientes a otros, constituye uno de los hechos más admirables de la Biología.

La biosfera es la región de la Tierra que alberga a los seres vivos. En sentido estricto, es la zona comprendida entre los fondos marinos abisales, situados a unos 11.000 m de profundidad y la altura máxima terrestre, que es de casi 9.000 m de altura sobre la superficie del mar. En realidad estos 20 Km. de espesor máximo se reducen enormemente si consideramos, por un lado, que la gran mayoría de los mares y océanos no son tan profundos y por otro, que los seres vivos que habitan el medio terrestre no lo hacen más allá de unos 200 m por encima del suelo.

En cualquier caso la biosfera constituye una capa muy delgada si la comparamos con el resto de capas que forman nuestro planeta y está formada por gran cantidad de ambientes distintos donde los seres vivos desarrollan sus actividades de maneras muy diversas.

La biosfera no es una capa homogénea, debido a que los organismos tienden a acumularse en determinados lugares donde las condiciones para la vida son más adecuadas. Estas condiciones vienen determinadas básicamente por los denominados factores ambientales, de los cuales los más importantes son: la temperatura, la luz, el agua y la presión.

La temperatura
La Tierra posee unas condiciones únicas para el desarrollo de la vida sobre su superficie si la comparamos con otros planetas del sistema solar. Esto se debe entre atrás cosas a que, por su distancia del sol f por la existencia de las capas atmosféricas, disfruta de un régimen de temperaturas adecuado.

El desarrollo y mantenimiento de la vida requiere que la temperatura se mantenga centro del intervalo comprendido entre a temperatura extrema mínima de O °C f la temperatura extrema máxima de 50 °C aproximadamente.

A temperaturas inferiores a los O °C, el agua, cuya proporción es mayoritaria en los organismos, se congela, mientras que por encima de los 50 :C, las estructuras biológicas más importantes que forman la materia viva, como las proteínas, que veremos en caratillos posteriores, sufren un proceso denominado desnaturalización, por el cual pierden tanto su estructura física como las propiedades. Existe una temperatura óptima entre los 5 y los 30 °C, en la que la mayoría de los seres vivos desarrollan sus funciones a la perfección.

Hay que tener en cuenta además que el proceso vital en cualquier organismo se compone de una gran cantidad de reacciones químicas que, como tales, dependen muy directamente de la temperatura a la que se realicen. De esta manera y siempre dentro del intervalo de temperaturas óptimas, a mayor temperatura, mayor velocidad de reacción y viceversa.

la vida en el planeta tierra

Los mamíferos pueden conservar el calor de sus cuerpos con independencia de la temperatura ambiental, pudiendo vivir en lugares muy fríos, como es el caso de los osos polares.

No obstante, es fácil encontrar en el seno de la biosfera zonas donde se sobrepasen, no sólo el rango de temperaturas óptimas, sino también el de temperaturas extremas, por lo que la gran mayoría de los organismos han desarrollado diferentes estrategias para mantener sus funciones vitales de manera adecuada bajo dichas condiciones.

Entre los seres vivos, son los animales por la variedad y complejidad de sus funciones, los que han tenido que desarrollar mecanismos más eficaces para el control de su temperatura interna. Dependiendo de cómo realizan este control, podemos distinguir entre animales poiquilotermos, como los reptiles, y homeotermos, como los mamíferos. A los primeros se les conoce vulgarmente como animales de sangre fría y a los segundos como animales de sangre caliente.

Los poiquilotermos se caracterizan por carecer de mecanismos eficientes para el control de su temperatura interna por lo que su metabolismo depende mucho de la del exterior, viéndose obligados, muchas veces, a pasar períodos de inactividad cuando las condiciones son extremas. En cambio, los homeotermos, consiguen mantener una temperatura interna siempre constante en torno a los 37 °C, lo cual les permite realizar sus funciones con bastante independencia de las condiciones ambientales.

reptil, la vida en el planeta

A Los reptiles, como el yacaré de la fotografía, no pueden mantener su temperatura interna de manera independiente a la del medio, por lo que únicamente pueden vivir en sitios cálidos.

Los vegetales generalmente combaten las temperaturas poco favorables perdiendo, de manera temporal, sus partes más sensibles (hojas, partes aéreas, etc.) y desarrollando estructuras especiales de resistencia (semillas, yemas, zonas leñosas, etc.).

La luz: La luz constituye un factor ambiental muy importante, ya que es la fuente de energía primaria a partir de la cual las plantas pueden desarrollar el complejo proceso de la fotosíntesis. Mediante este proceso se convierte la energía lumínica en energía química, la cual puede ser utilizada posteriormente en otros importantes ciclos metabólicos, bien por la misma planta o bien por otros organismos. La importancia de la fotosíntesis es tan grande que podemos afirmar sin duda alguna que el mantenimiento de la vida sobre la Tierra depende de este proceso.

La luz también influye en el desarrollo de la morfología de las plantas, determinando la dirección en la que deben crecer los tejidos y brotes permitiendo así una disposición óptima para la captación de energía.

Para los organismos no fotosintéticos, la luz es un factor que posibilita la visión y por tanto la facultad de relacionarse con el medio en el que viven. También interpone en los procesos de regulación de la actividad estacional. La distinta duración de los períodos de iluminación diurna a lo largo del año constituye un fenómeno denominado foto período que actúa como reloj biológico y sirve para desencadenar  importantes fases en la vida del organismo como por ejemplo la reproducen, la muda, la migración, la floración, etc.

En el medio acuático la penetración de a luz es menor que en el medio terrestre, le tal manera que a partir de los 200 m le profundidad reina una oscuridad absoluta. La zona comprendida entre la superficie del agua y la profundidad hasta donde llega la luz se denomina zona fótica, y es donde se acumula la mayor parte de los organismos acuáticos distribuyéndose en estratos o capas según las necesidades de luz que tienen.

La presión: El medio que rodea a los seres vivos ejerce una presión sobre ellos que también influye en la estructura y fisiología de los mismos.

En el medio terrestre, en el que los organismos están rodeados de aire, la presión se denomina presión atmosférica. Su valor varía ligeramente con la altura v la temperatura, de tal modo que al nivel del mar y 0°C, es de 760 mm. de Hg ( 1atmósfera), pero disminuye progresivamente a medida que ascendemos y también a medida que la temperatura aumenta. La  presión que se registra en el medio acuático se denomina presión hidrostática y su valor depende sólo de la altura de la capa de agua que hay por encima del organismo. S

u valor aumenta de manera lineal una atmósfera cada 10 m.  profundidad, de tal manera que a unos 10 m. la presión llega a ser de una tonelada por cada cm;. lo cual no impide que puedan vivir algunos organismos especialmente adaptados.

Esta variación de presión, si la comparamos con la que se produce en el medio terrestre, es muy grande, lo que provoca que la mayoría de los organismos acuáticos desarrollen sus actividades únicamente a la profundidad que están preparados para soportar, pudiendo perecer si la abandonan accidentalmente. Esta situación se hace drástica en los organismos que poseen cavidades internas rellenas de aire, como es el caso de muchos peces, mamíferos cetáceos y aves buceadoras. Estos organismos pueden morir aplastados o sufrir trastornos fisiológicos desastrosos si se sumergen a una profundidad excesiva.

El agua: El agua es la sustancia que se encuentra en mayor proporción formando parte de la materia de todos los seres vivos. En algunos casos puede llegar a constituir más del 90% del volumen total del organismo. Su importancia queda patente si consideramos la gran cantidad de funciones que realiza: sirve de disolvente en las reacciones bioquímicas que se producen en el interior de la célula; es el medio de transporte de los nutrientes y desechos en muchos organismos; interviene en la transpiración y fotosíntesis de las plantas; sirve de esqueleto hidrostático en muchos invertebrados; constituye el medio en el que viven los organismos acuáticos y, por último, sirve de controlador de la temperatura ambiental y corporal dada su elevada capacidad calorífica.

Todo organismo mantiene un equilibrio por el que se pierde y se incorpora agua continuamente durante el desarrollo de sus actividades vitales y que recibe el nombre de equilibrio hídrico. Todos los seres vivos, desde los protozoos unicelulares hasta los mamíferos más grandes poseen mecanismos para controlar eficazmente dicho equilibrio. Su mantenimiento es más fácil en los organismos marinos que en los que viven en agua dulce.

En los organismos terrestres es donde se dan los mecanismos de regulación más sofisticados, porque son los que más fácilmente pueden perder el agua que contienen (por transpiración, respiración, etc.) sufriendo, además, mayores dificultades para incorporarla. Es por ello que la disponibilidad de agua constituye un importante factor que condiciona enormemente la distribución de los organismos terrestres.

Fuente Consultada: DIDÁCTICA Enciclopedia Temática Ilustrada Editorial Oriente

La Enfermedad de Vaca Loca en el ganado bovino Proteinas Hidratos Carbono

La Enfermedad de Vaca Loca

ANIMAL VACA ENFERMALa ganadería comprende las diversas actividades (alimentación, selección, reproducción e higiene) que se desarrollan en la cría de animales, con el fin de obtener determinados productos principalmente destinados a su consumo por el ser humano.

La ganadería constituye para la mayoría de los países una actividad fundamental. Con la cría de ganado, el ser humano obtiene productos esenciales en la cadena alimentaria, como carnes, huevos, leche y todos sus derivados. El ganado puede ser usado como medio de transporte, ya sea de carga o de tracción; incluso en algunos países, como la India, para trabajos forestales.

Se crían animales para extraerles sus lanas y pieles que luego serán utilizadas por las industrias textiles, peleteras y de calzado. Muchos bienes fabricados por el hombre usan como materia prima productos animales: los cosméticos, los sueros, algunas medicinas, abonos, bisutería, etc. La equitación y la lidia de toros son actividades con muchísima demanda en ciertos grupos sociales de determinados países. Algunas especies domésticas se criar como animales de compañía o para distintos servicios, como en el caso de los perros, los cuales se utilizan para pastoreo, caza y como apoyo en determinadas acciones de la policía, el ejército y los bomberos.

En los países desarrollados, la producción de animales, generalmente, forma parte de las explotaciones agrícolas, en estrecha unión con los restantes componentes de la explotación (producción forrajera, instalaciones, mano de obra, etc.). En la mayoría de los casos, la ganadería tiene como objeto la transformación de productos vegetales, o subproductos industriales, en productos animales: los animales se dividen en los que pueden consumir vegetales celulósicos espontáneos o cultivados gracias a los microorganismos que se encuentran en su conducto digestivo (caballos, rumiantes, conejos) y los que sólo consumen alimentos con un porcentaje más reducido de materias celulósicas, como el grano (cerdo y aves de corral).

En algunos países, la ganadería evoluciona cada vez más hacia formas industriales. Aunque esta última tendencia se manifiesta en casi todas las especies, se ha llegado a comprender que las estructuras artesanales de producción, del tipo de la explotación familiar, pueden resultar tan eficaces como las estructuras industriales, a condición de que estén bien dirigidas y que se sitúen en un entorno muy estructurado en lo que concierne especialmente a aprovisionamiento y desarrollo (cooperativas, grupos de productores, etc.).

El mal de las «vacas locas»

Desde mediados de la década de los ochenta del siglo XX, el territorio europeo es escenario de una catástrofe de dimensiones aún por definir, que afecta sobre todo al ganado vacuno. La encefalopatía espongiforme bovina (EEB) se ha propagado vertiginosamente. En Inglaterra, país más afectado, se han tenido que sacrificar decenas de miles de cabezas. España, Francia y Alemania han dado ya la voz de alarma al detectar nuevos casos en sus territorios. La mayor gravedad radica en que es una enfermedad transmisible al hombre a través de la ingestión de tejidos infectados (óseos o carnicos). En la Unión Europea se está manifestando una situación de creciente preocupación al confirmarse la aparición de casos de la variante humana de la encefalopatía espongiforme bovina, la enfermedad de Creutzfeld-Jacob.

El fenómeno neurodegenerativo denominado, en una acepción general, como encefalopatías espongiformes transmisibles es conocido desde hace tiempo. El nombre proviene de las observaciones al microscopio que permiten ver el cerebro infectado lleno de poros, como si fuera una esponja. Estas enfermedades provocan un fallo en el control motor, seguido, en general, por demencia, a veces por parálisis y, finalmente, la muerte. La referencia más temprana se tiene en 1732, cuando se describieron los síntomas en ovejas.

En esta especie animal y en la cabra, la encefalopatía se denomina scrapie o tembladera, pero no fue hasta dos siglos más tarde, en 1938, cuando se demostró que era una enfermedad transmisible. Existen enfermedades neurodegenerativas similares en diversas especies animales, tales como ciervo, alce, visón, felinos y bovinos. En este último caso recibe el nombre de encefalopatía esoongiforme bovina (EEB). En humanos, la enfermedad de Creutzfeldt-Jakob fue ‘dentificada en 1920, aunque no se asoció al scrapie hasta 1950.

¿ Cómo se transmite la encefalopatía espogiforme bovina?

El periodo de incubación es variable, en general, entre tres y cinco años, aunque Puede ser superior. La vaca cuando enferma, parece nerviosa, pierde peso, tiene dificultades para andar y la producción de leche desciende. La procedencia de la enfermedad en las reses es todavía objeto de debate. Parece ser que la forma bovina tiene su origen en el scrapie de las ovejas. Estudios epidemiológicos indican que son fuente de contaminación ha sido la utilización de carcasas de animales contaminaos (vacas y ovejas) para fabricar piensos para el ganado vacuno. Se cree que la enfermedad ha derivado de la inclusión de material bovino contaminado en la fabricación de los piensos, que se produjo entre 1978 y 1980.

El rápido incremento de los enfermedad a mediados de los noventa (850 casos por semana en 1994) se debe probablemente a la inclusión de animales enfermos, no diagnosticados como tales, la fabricación de piensos para consumo bovino. Esta práctica se prohibió en julio 1988 en el Reino Unido pero la materia prima siguió exportándose. La mayor parte de los casos descritos en países europeos tiene su origen en animales exportados Reino Unido o alimentados con harina de dicha procedencia.

En estos momentos, la incidencia de la EE. UU. en el conjunto de la Unión Europea está disminuyendo. En el Reino Unido se ha producido un descenso del 40 en el número de casos descritos en el 2000 respecto a 1999 (1.136 casos), val• que debe compararse con los 36.000 casos descritos en 1992, el año de mayor incidencia. La medida comunitaria que obliga desde el 1 de enero del 2001 a la realización de un test post mortem para descartar el mal en todos los bovinos de m de 30 meses que vayan a entrar en la cadena alimentaria, producirá, sin duda, u aumento del número de animales enfermos detectados. Con todo, los casos positivos corresponden, cada vez más, a animales de mayor edad, lo cual es un buen síntoma, ya que puede presuponerse que la mayoría han nacido, y probablemente si han sido infectados, antes de la crisis de marzo de 1996 (cuando se detectó nueva variante de la enfermedad de Creutzfeldt-Jakob en la especie humana, as ciada al consumo de carne de reses afectadas>. Debido a que el periodo de incubación en las vacas es de 3-5 años, con cierta variación, la eficacia de las medida adoptadas sólo podrá ser valorada totalmente en los años 2004-2005.

Medidas para controlar el mal de las «vacas locas» en la Unión Europea

Los expertos afirman que la enfermedad puede erradicarse con la normativa en vigencia pero que para ello resulta imprescindible que los países extremen el celo para garantizar los controles del ganado y la exclusión de las harinas de origen animal en su alimentación. La medidas adoptadas por la Unión Europea para frenar la expansión d la epidemia son:

— En julio de 1994 se prohibió el uso de harinas de carnes y huesos de mamíferos para la fabricación de alimentos para rumiantes. La prohibición se convirtió en total (para todo el ganado) a partir del 1 de enero del 2001.

— Se introdujeron medidas más eficaces para tratar los despojos de animal contaminados, con el fin de reducir la capacidad infecciosa al mínimo (a partir de abril de 1997).

— Se adoptaron medidas de vigilancia activa para la detección, control y erradicación de la EEB a partir de mayo de 1998, que se complementaron a partir del. de enero del 2001 con la obligatoriedad de analizar todas las reses de más de meses de edad antes de su introducción en el mercado para consumo human

— Se obligó a la eliminación de los restos animales considerados de riesgo dula espinal, cerebro, ojos y amígdalas) de ternera, oveja y cabra en toda la a partir de octubre del 2000, a los que se añadió el intestino a partir de diciembre del mismo año. Dichos restos no pueden ser usados para el consumo de humanos ni para el de animales. Precisamente, se ha comprobado que las partes señaladas, las cuales habían sido ya descartadas en varios países miembros con anterioridad, son responsables de la infección en un 95% de los casos. Sin embargo, el desbloqueo a las propuestas de la Comisión Europea en algunos países no se ha producido hasta muy recientemente, tras la aparición de casos de EEB en países como Alemania y España.

— Se prohibió el uso de animales no aptos para el consumo humano en la fabricación de piensos a partir de marzo de 2001.

Aparte de éstas, algunos países, especialmente aquellos que tienen una mayor incidencia de la enfermedad, han adoptado otras medidas específicas. Es de destacar que todas las decisiones comunitarias sobre este tema están basadas en la evaluación y asesoramiento científico y se revisan de forma continua para actualizarlas en función de la nueva información científica. Por su parte, la Comisión Europea realiza inspecciones en los países miembros para verificar la correcta aplicación de las normas.

En definitiva, las medidas adoptadas han consistido en eliminar de la cadena alimentaria (humana y animal> todas las partes del ganado susceptibles de ser vehículos de alto riesgo de contaminación, es decir, médula espinal, cerebro, ojos, amígdalas e intestinos. Se consideran tejidos con un cierto riesgo de infección las vísceras (riñones, hígado, pulmón, páncreas, nódulos linfáticos y placenta).

El comité de científicos de la Comisión Europea ha valorado la inclusión de los chuletones, ya que en principio pueden ser considerados alimentos de riesgo, si no han sido bien cortados, por su cercanía a la espina dorsal. Los bistés se consideran seguros, aunque se puede incrementar la seguridad si se eliminan los nervios y el tejido linfático de la carne. La leche y sus derivados, el sebo y la gelatina son considerados seguros. Entre los materiales no alimentarios susceptibles de suponer algún limitado riesgo de transmisión, están las vacunas (humanas y veterinarias) y los cosméticos preparados con material bovino.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)

Vaca Que Da leche Maternizada Rosita Primer Bovino Clonado en el Mundo

Vaca Rosita Que Da Leche Maternizada

La tecnología utilizada para obtener la vaca clonada surge de una Resolución del Ministerio de Agricultura nacional, con el visto bueno de la CONABIA. Rosita vaca clonada por científicos argentinos con genes bovinos y humanos, y ahora comenzó a producir leche similar a la materna con el fin de contribuir en la lucha contra la mortalidad infantil.

La lactancia materna  es una  de las formas mas eficaces de asegurar la salud de los niños.  leche humana tiene más de 370 componentes específicos que inmunizan al bebe tanto de enfermedades inmediatas como futuras, y se está tratando de concientizar a la población de la importancia del amamantamiento de los bebes, ya que se podría evitar mas de 1.000.000 de muertes al año. El mejor alimento para el recién nacido es la leche materna y se lo debe amamantar hasta los 6 meses de edad.

Rosita ISA, nació en abril de 2011 y es el primer bovino bi-trans-génico en el mundo capaz de producir leche maternizada. Un logro producto del trabajo del INTA junto con la Universidad Nacional de San Martín. La ternera clonada nació en el primer cuatrimestre de 2011 y tiene un perfecto estado de salud. “Hemos cumplido con todos los requerimientos relacionados con su crianza artificial, su calendario sanitario y las disposiciones de la Comisión Nacional de Biotecnología Agropecuaria (CONABIA)”, afirmaron los técnicos.

Es una manera de contribuir con la lucha contra la mortalidad infantil, ya que una proteína permite evitar enfermedades infecciosas del aparato digestivo y la otra asimilar el hierro, es decir, evitar la anemia en los niños recién nacidos

Rosita ISA -llamada así por el acrónimo compuesto por la “I” de INTA y la “SA” de San Martines el primer bovino nacido en el mundo al que se le incorporaron dos genes humanos que codifican dos proteínas presentes en la leche humana. Los investigadores indicaron en junio de 2012, por métodos de Biología Molecular, que la lisozima y lactoferrina humanas se encuentran en la leche de Rosita ISA. Hoy día, el INTA y la UNSAM muestran al mundo el primer bovino del mundo que, efectivamente, produce leche maternizada. Un logro maravilloso.

LA CURA DE ENFERMEDADES  OTRAS ENFERMEDADES
Los primeros medicamentos transgénicos ya llegaron:
Las vacas transgénicas argentinas del laboratorio BioSidus no son los únicos mamíferos utilizados a nivel mundial para producir en su leche proteínas terapéuticas; o sea, moléculas que curan enfermedades humanas.

Este tipo de desarrollo tecnológico se realiza esencialmente en otros tres países: Estados Unidos, Francia y Holanda. En Francia, la empresa biotecnología Bioprotein cría conejas modificadas genéticamente para que produzcan en su leche proteínas llamadas recombinantes, utilizadas en la lucha contra tumores.

En Holanda, Pharming Group utiliza, al igual que BioSidus, la vaca como “biorreactor” para producir medicamentos humanos. El laboratorio estadounidense Genzyme Transgenic Corporation hizo otra apuesta, al modificar cabras que producen en su leche una proteína humana, llamada Atryn.

Esta molécula es usada para combatir una enfermedad genética poco común, que disminuye la fluidez de la sangre generando accidentes cardiovasculares que pueden ser fatales. En 2006, esta molécula producida por cabras obtuvo, por parte de la máxima autoridad europea la autorización de comercialización en todos los países de la Unión Europea, determinando de este modo que no existen riesgos para el hombre con la utilización de moléculas producidas por mamíferos modificados genéticamente. Con este antecedente, es probable que los medicamentos producidos por las vacas argentinas tengan un gran futuro en el escenario mundial.

Fuente Consultada: Diario Digital “La Nación”  y Revista “El Federal”

La eugenesia las especies y la reproduccion de los mejores Darwinismo

ESPECIE: Conjunto de individuos capaces de dar origen a hijos que puedan tener descendencia fértil. Definiciones algo más concretas, hablan de «especie evolutiva», entendida como —siguiendo la definición del naturalista George G. Simpson (1902-1984)— una estirpe (o secuencia de poblaciones de ancestros-descendientes) que evoluciona separadamente de otras y que tiene un papel y unas tendencias de evolución propias y de carácter unitario.

Éste es el concepto más ampliamente aceptado y de mayor consenso, al menos entre los zoólogos. El asumir una especie como biológica, implica evolutivamente asumir que es una población reproductivamente aislada, por lo que constituye un linaje evolutivo separado y que es reforzado por una serie de barreras que pueden ser de carácter geográfico o biológico

En realidad, el concepto de especie tiene mucho de ambiguo. Generalmente, las poblaciones vecinas de un determinado animal pueden cruzarse, pero entre poblaciones de áreas geográficas más alejadas puede producirse una disminución de la fertilidad si intentan el cruzamiento, hasta llegar a la imposibilidad entre poblaciones muy distantes. Se puede entender esta reducción progresiva de la fertilidad como debida a la posesión de dotaciones cromosómicas que se van diversificando a medida que aumenta la distancia.

Eugenasia

Ahora bien, los miembros de esas poblaciones distantes e infértiles por cruzamiento, ¿pertenecen a la misma especie o a especies diferentes? Como no pueden cruzarse, habría que asignarlos a especies diferentes. Pero como están conectados por una serie continua de poblaciones cruzables, se podría considerar que, a fin de cuentas, pertenecen a la misma especie. Desde este punto de vista, el concepto de especie tiene algo de relativo, aunque, por otra parte, no deja de ser consecuente con el gradualismo histórico darwiniano.

Además, el concepto moderno de especie, basado en el aislamiento reproductivo, no es fácil de aplicar a aquellos organismos eucariotas (dotados, recuerden, de núcleos) que se reproducen sin apareamiento, de modo que cada miembro de la especie está aislado reproductivamente. Problemas parecidos los plantean aquellas especies que se reproducen de forma vegetativa (por fisión del progenitor), por partenogénesis (desarrollo a partir de óvulos no fertilizados) o por auto fertilización de un hermafrodita. En esos casos hay que recurrir a otros criterios de clasificación.

La verdad, no encuentro ningún placer en estos tipos de diferenciación que con más frecuencia de la deseada han conducido —aunque sea indirectamente— a la discriminación, a contemplar a «los otros» como enemigos, o como esclavos (esto es patente con los «otros animales», los no humanos, que nuestra especie maltrata a menudo innecesariamente). Encuentro un mayor consuelo en los análisis de parentesco  entre especies diferentes que se realizan analizando las cadenas de aminoácidos de algunas de sus proteínas, y que nos hablan de la cercanía que nos une a, por ejemplo, los caballos.

Me doy cuenta de que estos argumentos míos son, en este punto, poco científicos, pero, lo repito una vez mas: no doy la espalda a encontrar en los resultados de la investigación científica algún que otro apoyo para causas morales.

EUGENESIA: Movimiento iniciado en las últimas décadas del siglo XIX, que sostenía que la mayoría de las características humanas eran estrictamente hereditarias y que había que mejorar la especie humana, favoreciendo la reproducción de los mejores especimenes y dificultando la de aquellos con deficiencias.

Los eugenesistas mantenían que no sólo los rasgos físicos, como el color de los ojos y la altura, sino también los atributos de la personalidad estaban determinados genéticamente (en un sentido mendeliano) y que para elevar el nivel de la población había que proceder poco más o menos como los ganaderos: favorecer la reproducción de los «buenos» sujetos y aminorar, o incluso detener, la reproducción de los «malos». A finales del siglo XIX y comienzos del XX, ayudado por la credibilidad que le otorgaba una presunta base científica, el programa eugenésico se extendió ampliamente, en especial en Estados Unidos y en algunos países de Europa.

Fue en Estados Unidos donde la fe en la genética mendeliana aplicada a los seres humanos se llevó a la práctica por vez primera: en 1907 el estado de Indiana aprobó las primeras leyes. que permitían la esterilización de los enfermos mentales y criminales patológicos; a finales de la década de 1929 veintiocho estados y una provincia canadiense habían introducido legislaciones parecidas.

Detrás de las ideas eugenésicas, se encuentra la convicción de que la vida humana puede reducirse a la biología y que las instituciones humanas se conducirán mejor teniendo en cuenta las «realidades» del determinismo biológico.

Ahora bien, semejante idea es cuestionable, y ello independientemente de que el punto de partida científico sea correcto o no (ya señalaba esto a propósito del determinismo biológico), de que, por ejemplo, las ideas eugenésicas hubieran resultado ser correctas desde el punto de vista científico. El problema es que el universo en el que se mueven los seres humanos no coincide exacta, ni siquiera necesariamente, con el universo del conocimiento científico. Aldous Huxley (1894-1963) expresó de manera magnífica tal diferencia cuando escribió:

El mundo al que se refiere la literatura es el mundo en el que los hombres son engendrados, en el que viven y en el que, al fin, mueren. El mundo en el que aman y odian, en el que triunfan o se los humilla, en el que se desesperan o dan vuelos a sus esperanzas. El mundo de las penas y las alegrías, de la locura y del sentido común, de la estupidez, la hipocresía y la sabiduría. El mundo de toda suerte de presión social y de pulsión individual, de la discordia entre la pasión y la razón, del instinto y de las convenciones, del lenguaje común y de los sentimientos y sensaciones para los que no tenemos palabras… [Por el contrario], el químico, el físico, el fisiólogo son habitantes de un mundo radicalmente diverso —no del mundo de los fenómenos dados, sino de un mundo de estructuras averiguadas y extremadamente sutiles; no del mundo experiencial y de los fenómenos únicos y de las propiedades múltiples, sino del mundo de las regularidades cuantificadas

Fuente Consultada: Diccionario de la Ciencia Jose M. Sanchez Ron

Nanociencia Nanotecnologia Que es la Nanociencia? Aplicaciones de la

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”. La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas. Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES: E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: “Hay mucho lugar allá abajo” y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un “nanómetro”, o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas. El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa. (Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos. Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa? ¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas? ¿O un “acero” tan liviano como el plástico y un interruptor sin cable? ¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm). Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información. Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

El significado de la “nano” es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro. También: 1 milímetro = 1.000.000 manómetros. Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de “ver” y “tocar” a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de “ver” átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble. Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material. Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

La palabra “nanotecnología” es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas “nanos” que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO
Pero esta revolución plantea una cantidad infinita de preguntas. Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos. Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores. A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central. Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas. Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO
El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia. A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento. La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano. Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados. Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera: El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales. Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales. El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada. Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer: Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes. La prueba más reciente puede detectar concentraciones
mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande. En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO: Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero. “Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías”, asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina. “En unos años, veremos pantallas de este material en todas partes.”

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles. También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz. Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos. Y hay más: “el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015”.

LOS FULLERENOS, Historia
Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamante -sustancia de gran dureza que no conduce la electricidad- y de grafito -material bastante blando y buen conductor de la electricidad- Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial. Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos. Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno. Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado. En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos. ¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química. Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura. Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.
Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA: Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: “A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo”.

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra “nanotecnología” en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:
> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

Bomba Atomica Perdida Accidente Aereo Pierde Una Bomba Atomica

La Bomba Atómica Perdida

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española,  “es una mezcla de cosas de distinto origen o tipo”, y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas  ,pero interesantes como para ampliar  nuestra cultura general.

BOMBA ATÓMICA PERDIDA: A primera hora de la mañana del 5 de febrero de 1958, un bombardero B-47 despegó de la base de las Fuerzas Aéreas de Homestead, Florida, llevando una bomba termonuclear Mark 215, de tres toneladas y media, con más de dos toneladas de explosivo convencional, una cabeza nuclear de uranio y una cápsula nuclear extraíble consistente en un detonador de plutonio.

Esta bomba era cien veces mas potente que la que las USAAF lanzaron sobre Hiroshima trece años antes; era capaz de exterminar inmensas áreas del este de América y provocar un tsunami que habría llegado hasta Nueva York.

No mucho después de despegar, a las 3.30 de la madrugada, el bombardero colisionó con un F-86 cuyo piloto saltó antes de que los aviones chocaran. La tripulación del bombardero trató de controlar el B-47, aunque éste había sufrido serios daños y había fuego en su interior.

El avión fue a aterrizar directamente al campo de aviaciónHunter Army, en las afueras de Savannah, a poco más de dieciséis kilómetros. Alcanzó la pista, pero un fallo mecánico impidió que pudiera reducir la velocidad para efectuar un aterrizaje seguro.

Entonces, se le ordenó que se alzara de nuevo y que se deshiciera de la carga explosiva a unos dos kilómetros y medio más allá, en una zona donde no peligraran vidas humanas, para después volver a la base e intentar aterrizar de nuevo. La tripulación obedeció las órdenes y lanzó los dispositivos cerca de la desembocadura del río Savannah.

El incidente puso a Washington en un enorme aprieto, pues el Pentágono quería evitar la consiguiente consternación pública resultante del hecho de que hubieran soltado una bomba nuclear en territorio propio.

Tras el silencio inicial del Departamento de Defensa estadounidense, que duró unos cuantos días, el comunicado decía que se había arrojado en una zona «una porción de arma nuclear», pero que no había riesgo para la población porque el arma estaba «descargada».

De todos modos, cuando las cosas se calmaron, e independientemente de si la bomba estaba o no cargada, resultó imposible recuperarla.

Hasta nuestros días el Pentágono sigue afirmando que no hay problemas porque el artefacto está desactivado, pero algunos soldados encargados de cargar la bomba al avión relataron todo lo contrario, frente a la negación de las autoridades militares. Hasta el misterio continua, y la bomba sigue extraviada.

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik
El Jardín de Newton – José M. Sánchez Ron
Lo Que Oculta La Historia – Ed Rayner y Ron Stapley

Cuantos Hijos Tuvo Urquiza? Descendencia de Urquiza La Familia de Justo

Los Hijos de Urquiza

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española,  “es una mezcla de cosas de distinto origen o tipo”, y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas  ,pero interesantes como para ampliar  nuestra cultura general.

Justo José de Urquiza

LOS HIJOS DE JUSTO J. DE URQUIZA: respecto a este tema histórico, la mejor explicación detallada que conozco es la del historiador argentino Daniel Balmaceda, quien en su libro “Historias Insólitas de la Historia Argentina” lo explica de la siguiente manera:

“Los hijos de Urquiza —los que se conocen— son veintitrés. Por eso, conviene ir por partos; perdón, por partes. A la edad de 18 años, en 1820, una relación furtiva de Justo con Encarnación Díaz los convirtió en padres de Concepción, un nombre más que premonitorio si se analiza su nutrida descendencia. ¿Dónde vivía Concepción? En Concepción del Uruguay.

Tres años más tarde, Urquiza conoció a Segunda Calvento, quien pertenecía a lo más exquisito de las familias de Entre Ríos. Segunda dio a luz a Pedro Teófilo Urquiza Calvento el 18 de septiembre de 1823. Justo y Segunda no formalizaron la relación mediante el matrimonio, pero eso no les impidió darle hermanos a leo. Diógenes nació el 18 de diciembre de 1825. Waldino, el 30 de enero de 1827. José, el cuarto de los Urquiza Calvento, llegó en 1829. Su padre lo llamaba Pepe.

La relación con aquella segunda novia llamada Segunda culminó en algún momento y Justo encontró un nuevo amor. Cruz López Jordán (20 años) era su cuñada y a la vez, imadrina de Waldino! El fruto de los amores entre Cruz y Justo fue Ana Dolores Ercilia, sexta en la lista de hijos, quien nació el 11 de mayo de 1835.

En los meses de 1839, el donjuán fue asiduo participante de las tertulias de doña Pascuala Ferreira de Sambrana, en Concepción del Uruguay. La festejada hija de Pascuala —y potencial madre de criaturas Urquiza— se llamaba Doraliza. No duró mucho la relación porque el galán pasó a cortejar a una hermana menor de Doraliza, Juanita. El 27 de febrero de 1840 Doraliza se convirtió en tía de Carmelo, el séptimo Urquiza. En 1842 Dolariza volvió a ser tía, esta vez de una pequeña llamada Juana, quien pronto tendría companía. Cándida nació el mismo año que Juana, pero su madre fue la atractiva riojana Tránsito Mercado y Pazos. (Hacemos un paréntesis para contar que en medio de estos nacimientos, se casaba la primogénita Concepción Urquiza Díaz. Aquel producto de su pecado de juventud ya tenía edad para formar familia. Pero al padre de Concepción no había quién lo llevara a un altar.)

El 22 de marzo de 1846 lanzó su primer llanto Clodomira del Tránsito Urquiza, hija de Tránsito Mercado, la atractiva riojana. Ese mismo año, en septiembre, María Romero dio a luz a Norberta Urquiza. Pocas semanas después llegó Medarda Urquiza, hija del picaflor entrerriano y Cándida Cardoso. Las tres nacidas el mismo año, pero lejos de ser trillizas, eran más bien urquillizas.

Hasta aquí, la primera mitad de la descendencia del entrerriano. Conviene recapitular. Justo José de Urquiza tuvo entre 1820 y 1846 siete “novias” y doce hijos extramatrimoniales: Concepción, Teófilo, Diógenes, Waldino, José, Ana, Carmelo, Juana, Cándida, Clodomira, Norberta y Medarda.

Pocas semanas después del histórico Pronunciamiento del 10 de mayo de 1851, en el que cuestionaba el poder de Rosas, Urquiza, quien por entonces tenía 49 años, asistió en Gualeguaychú a una de las tantas fiestas de las que participaba —Justo José era fanático del baile— y quedó embobado ante una joven de 21 años y mirada cautivante.

La reina de Gualeguaychú era Dolores Costa, pero el general, quien tenía cinco hijos más grandes que ella, la llamaba Dolor-cita. Para Sarmiento, la señorita Costa era “la sultana favorita” del entrerriano.

Dolores actuó como Primera Dama de Palermo —donde Urquiza se instaló al vencer a Rosas—, aunque no lo hizo con exclusividad, ya que tuvo que aguantarse a una ex en su casa. Nos referimos a Cruz López Jordán, madre de Anita y madrina de Waldino. Tal vez esta rareza de contar con una doble compañía le haya servido ajusto José para paliar la herida psicológica que habría recibido cuando fue “cruelmente engañado” en su juventud.

La decimotercera descendiente, Dolores Urquiza Costa, nació el día previo a que se sancionara la Constitución del año 53. Lola tuvo varios hermanos: justa (nació en 1854), justo (nació 1856 y nos ocuparemos de él en el párrafo siguiente), Cayetano (1858), Flora (1859), Juan José (1861), Micaela (1862) y Teresa (1864).

En total, ocho hermanos con la misma madre, la gualeguaychense Dolores Costa, con quien convivía en el espléndido palacio San José de Concepción del Uruguay. Pero no se había casado. Por fin lo hizo en 1865, en la acogedora capilla que existe junto a la casa, cuya principal curiosidad son los numerosos símbolos masones que contiene.

Una vez que Justo y Dolores fueron marido y mujer, nacieron Cipriano (1866), Carmelito (1868) y, por último, la benjaminaCándida (1870). Estos once hijos que tuvo con Dolores más los otros doce de distintas relaciones fueron reconocidos en forma legal.

Si hubo más, nunca alcanzaron el grado de estos veintitrés. Muchos de los hijos extramatrimoniales de Urquiza vivieron en el palacio San José, con su padre, Dolores Costa y los descendientes del matrimonio.”

Fuente Consultadas:
Crónica Loca de Víctor Sueiro

Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Carta del Padre de Einstein Buscando Trabajo Para Su Hijo Albert

La Carta del Padre de Albert Einstein

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española,  “es una mezcla de cosas de distinto origen o tipo”, y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas  ,pero interesantes como para ampliar  nuestra cultura general.

CARTA DESPERADA DE UN PADRE AFLIGIDO: Luego de graduado, a Einstein le costó cierto tiempo conseguir un empleo, situación que preocupaba al flamante científico. Su padre, percibiendo sin duda su estado de ánimo (Einstein se encontraba entonces con su familia en Milán), sé atrevió a escribir (el 13 de abril de 1901) una carta a Ostwald, un reconocido profesor académico. Estas fueron sus palabras….

Estimado Herr Professor:
Por favor perdone a un padre que es tan atrevido como para dirigirse a usted, estimado Herr Professor, en el interés de su hijo.

Comenzaré por decirle que mi hijo Albert tiene 22 años, que estudió en el Politécnico de Zúrich durante cuatro años, y que pasó sus exámenes para el diploma en matemáticas y física con magníficas notas el verano pasado. Desde entonces ha estado intentando, sin éxito, obtener un puesto de asistente, que le permitiera continuar su educación en física teórica y experimental. Todos aquellos en situación de dar su opinión al respecto elogian sus talentos; en cualquier caso, puedo asegurarle que es extraordinariamente estudioso y diligente y se apega con gran amor a su ciencia.

Mi hijo se halla, por consiguiente, profundamente infeliz con su actual falta de un puesto, y su idea de que ahora se encuentra fuera de órbita hace que se sienta cada día más arrinconado. Además, se siente oprimido por el pensamiento de que es una carga para nosotros, gente de medios modestos.

Como es a usted, altamente respetado Herr Professor, a quien mi hijo parece admirar y respetar más que a cualquier otro investigador de los activos actualmente en la física, es a usted a quien me tomo la libertad de recurrir con la humilde petición de que lea su artículo publicado en el Annalen Physik y que le escriba, si es posible, unas pocas palabras de ánimo, de forma que pueda recobrar su alegría de vivir y trabajar.

Si, además, pudiese procurarle un puesto de assistent para ahora o para el próximo otoño, mi gratitud no conocería límites.
Le pido una vez más que perdone mi imprudencia al escribirle, y también me tomo la libertad de mencionar que mi hijo no sabe nada acerca de este inusual paso.

Por lo que se sabe hasta hoy, la respuesta que obtuvo Hermann Einstein de Ostwald fue la misma que tuvo su hijo: ninguna.

En esta situación, algunos de sus amigos intentaron ayudarle.Michele Angelo Besso (1873-1898), un ingeniero suizo a quien Einstein había conocido en una velada musical celebrada en Zúrich en 1896, y la única persona a quien Einstein agradeció su colaboración en su artículo de la relatividad especial (que no contiene ninguna referencia a otros trabajos), buscó la ayuda de un tío suyo, profesor en Italia.

El 15 de abril de 1901. Einstein tenía buenas noticias que contar a su novia Maric. Por un lado, que el profesor Jakob Rebstein, del Politécnico de Winterthur, le había escrito preguntándole si quería sustituirlo del 15 de mayo al 15 de julio, fechas en las que tenía que cumplir con su servicio militar. «Puedes imaginarte con qué gusto hago esto! Tengo que dar unas 30 horas semanales, entre ellas incluso geometría descriptiva, pero el valiente suabo no se asusta». escribía a Mileva.

Por otra parte, acababa de recibir una carta de su amigo y compañero de estudios Marcel Grossmann (1878-1936), con quien en 1912-1913, siendo ambos profesores en la ETH, aprendió y desarrolló el aparato matemático (la geometríariemanniana) necesario para la relatividad general, en la que éste le comunicaba que probablemente recibiría pronto, con la ayuda del padre de Marcel, un puesto estable en la Oficina de Protección de la Propiedad Intelectual de Berna.

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik
El Jardín de Newton – José M. Sánchez Ron

Proyecto MK Ultra Investigacion con LSD Experimentos de la CIA con LSD

El proyecto MK Ultra – Espionaje Americano

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española,  “es una mezcla de cosas de distinto origen o tipo”, y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas  ,pero interesantes como para ampliar  nuestra cultura general.

Experimentos de la CIA y el LSD (alucinógeno: acido lisérgico): MkUltra era el nombre en clave de una operación a gran escala organizada por el Equipo de Servicios Técnicos de la CIA (TSS) con el propósito de llevar a cabo investigaciones sobre la alteración del comportamiento humano, especialmente a través del empleo del LSD y utilizando a civiles inocentes como sujetos experimentales.

“Mk” era el prefijo genérico que tenían todas las operaciones de control mental (mind control) y “Ultra” provenía de la red de inteligencia organizada por los estadounidenses en la Europa dominada por el III Reich, una batallita de la que los veteranos agentes de la recién creada CIA se encontraban especialmente orgullosos.

proyecto mk ultra

El padre del proyecto fue Richard Helms, quien más tarde se convertiría en director de la agencia y que adquirió posteriormente cierta relevancia en relación con el escándalo Watergate. Entre 1953 y 1964 MkUltra (desde esa fecha hasta 1973 el programa continuó bajo el nombre de MkSearch) cometió algunas de las peores atrocidades y más flagrantes violaciones de los derechos humanos de la historia de Estados Unidos.

De hecho, muchos de los experimentos llevados a cabo en el marco de este proyecto diferían muy poco de los ejecutados por los médicos nazis en los campos de exterminio; es más, algunos fueron llevados a cabo por médicos que habían prestado sus “servicios” en campos como Dachau y cuyos conocimientos, especialmente interesantes para las autoridades estadounidenses en los tiempos de la Guerra Fría, les habían valido para escaparse por la puerta de atrás de la acción de los tribunales de Nuremberg.

La Agencia Central de Inteligencia tenía buenas razones para interesarse por el empleo del LSD como agente modificador del comportamiento. Una era utilizarlo, contraviniendo la convención de Ginebra, en la obtención de información de prisioneros de guerra o de agentes secretos enemigos. Otra, determinar el posible empleo del ácido lisérgico como arma de guerra química.

Existía una tercera aplicación del LSD que atraía sobremanera al sector más visionario del TSS: utilizarlo como herramienta de perturbación social en países enemigos, bien popularizando su uso como estupefaciente o bien introduciéndolo subrepticiamente en la red del suministro de agua.

En los años sesenta, según demuestran documentos secretos recientemente desclasificados en Estados Unidos, la CIA llegó a considerar seriamente la posibilidad de emplear este tipo de estrategias contra el régimen de Fidel Castro y, lo que resulta más sorprendente aun, para el control de la propia población de Estados Unidos.

En este entorno, la experimentación con sujetos no avisados era fundamental, ya que el TSS necesitaba, previamente a poder llevar a cabo estos planes, obtener datos de los efectos de la droga en situaciones de la vida real.

Un paradigma de los extremos a los que se llegó lo constituye un memorando interno de la CIA, fechado el 15 de diciembre de 1954, que recoge la propuesta del 155 de introducir cierta cantidad de LSD en el ponche que se serviría en la fiesta de Navidad que la agencia daba anualmente a sus empleados, es decir, se realizaban experimentos con el propio personal.

Droga: Efectos del LSD

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik

La Venus de Milo Historia Perdida de los Brazos Mutilacion Brazos

Los Brazos Perdidos de la Venus de Milo

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española,  “es una mezcla de cosas de distinto origen o tipo”, y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas  ,pero interesantes como para ampliar  nuestra cultura general.

LA TRAGEDIA DE LA VENUS DE MILO:  Una de las esculturamas famosas de la historia antigua  es la llamada Venus de Milo,conocida también como Afrodita de Melos, que fue encontrada a principios del siglo XIX en la isla de Milos en el corazón de las Cícladas.

 Fue esculpida aproximadamente entre los años 130 y 120 a.C. y hoy en día se puede admirar en el museo del Louvre, en París.

Se trata de un torso de mármol considerado por los expertos como el máximo exponente de la belleza clásica, y a lo largo de la historia ha sido objeto de innumerables especulaciones.

Finalmente se ha conseguido arrojar algo de luz en su pasado y se ha llegado a la conclusión de que la deformación fue consecuencia de un error humano y que la famosa amputación no es otra cosa que pura casualidad.

Entre los años 1919 y 1920 el explorador francés Dumont D’Urville tomó parte en una expedición en el mar Mediterráneo y por casualidad descubrió en el establo de las cabras de un pastor de la isla de Melos (Milos) una escultura que el instruido marino inmediatamente identificó como una Venus, la diosa del amor: en su mano sujetaba una manzana que le había entregado Paris para distinguirla como la mujer más hermosa.

D’Urville en seguida intuyó que la obra de arte tenía un valor extraordinario y decidió que debía llevarla a su tierra natal costase lo que costase. Sin embargo, el precio que pedía el pastor era tan alto que no tenía suficiente para pagarlo en el momento, de manera que se puso en contacto con la embajada francesa y se hizo acompañar de un diplomático que confirmaría la venta.

Cuando D’Urville regresó a Melos con su acompañante, el pastor ya había vendido la pieza a otros interesados para que fuera regalada al gobernador turco, de manera que se encontraba en el establo empaquetada y lista para que pasaran a recogerla.

D’Urville tuvo que recordar al pastor la promesa que le había hecho y éste, cuando vio el dinero contante y sonante, recuperó rápidamente la memoria. Los dos franceses dispusieron la escultura en una camilla y se encaminaron hacia la playa, donde estaba anclado su barco. Sin embargo, de camino se toparon con los turcos.

Tras el encontronazo se produjo una dura pelea que culminó con la victoria francesa. D’Urville y el diplomático no fueron los únicos que sufrieron heridas de consideración en el forcejeo, sino que también la Venus salió malparada: había perdido ambos brazos. Finalmente la estatua consiguió llegar a París sin más contratiempos pero, a pesar de los esfuerzos, los brazos nunca más aparecieron..

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik
El Jardín de Newton – José M. Sánchez Ron
Los Errores de La Historia – Roger Rossing

Microscopio Forma de Uso Manejo Nombre de las Partes Instrucciones

Microscopio:Forma de Uso, Partes, Instrucciones

Este aparato nos permite ver los objetos con 100 o 200 aumentos más que la lente, pero su empleo no resulta nada sencillo. En una palabra: enseña más que aquélla, pero es también mucho más exigente. Aun para realizar con él las operaciones menos complicadas, es necesario poseer un auténtico “laboratorio” en miniatura.

Además, el nuevo instrumento es poco manejable y no puede llevarse encima durante las excursiones por el campo. Esto significa que el microscopio, a pesar de ser más potente y perfecto, nunca sustituirá por completo a nuestra vieja, fiel y manejable amiga, la lente, que continuará a nuestro lado y nos será de gran utilidad para echar un primer vistazo de “tanteo” al material que luego examinaremos más cuidadosamente en el “laboratorio”.

EL MICROSCOPIO
Para la observación de la célula y de los tejidos, es imprescindible el uso del microscopio, ya que en su gran mayoría las células no son visibles a simple vista porque miden micrones (1 micrón = milésima parte de un milímetro).

Este aparato, insustituible en cualquier investigación científica, fue ideado y construido en el siglo XVII por el holandés Antón van Leeuwenhoek (1632-1723), siendo constantemente perfeccionado por su continua utilidad, hasta llegar al poderoso microscopio electrónico que hoy se utiliza.

Microscopio Forma de Uso Manejo


La construcción de este aparato está basada en un fenómeno físico que es la refracción de la luz. Consta de dos partes: una mecánica y otra óptica.

Parte mecánica
Está formada por un pie o soporte, que sirve para la estabilidad del aparato; por la platina, que es una pieza movible por dos tornillos laterales, donde se coloca la preparación microscópica, que se fija mediante dos pinzas o resortes y que posee un orificio circular en el centro por donde pasa la luz que ilumina la preparación; y por el brazo o columna, que es articulado y sirve para inclinar el microscopio o para trasportarlo.

Parte óptica


Consta de dos partes principales (ocular y objetivo) y de partes accesorias (espejo, condensador, diafragma, tornillos micrométricos y tornillos micrométricos).

El ocular es el lugar por donde se mira y está formado por dos lentes ubicados en el extremo superior del tubo óptico.

El objetivo es también un sistema de lentes ubicado en el extremo inferior del tubo. Cada microscopio suele tener varios objetivos con lentes de distintos aumentos, que se disponen sobre una pieza giratoria llamada revólver.
Et espejo es móvil y está situado debajo de la platina, tiene una cara cóncava (que se utiliza si se trabaja con luz artificial) y una cara plana (que se utiliza si se trabaja con luz natural). Este espejo se adapta a la luz y la refleja hacia el objeto que se observa.

El diafragma, colocado entre la platina y el espejo, gradúa la cantidad de luz que ilumina el objeto.
El condensador es un lente que concentra la luz sobre el preparado.

Los tornillos micrométricos y micrométricos sirven para acercar o alejar el tubo óptico del preparado, para su perfecto enfoque. El primero es de movimientos más rápidos, y el segundo, más sensible, es de movimientos lentos.

EL LABORATORIO – Si deseamos trabajar de manera tranquila y eficaz, conviene que reservemos un rincón de la casa situado junto a una ventana (de ser posible no orientada al Norte) y cerca de un enchufe.

Para amueblar nuestro laboratorio de investigación necesitaremos una mesa muy estable, con la superficie de cristal (o cubierta, en caso contrario, por una o dos gruesas láminas de plástico), una silla o un taburete de cierta altura, una estantería, una lámpara eléctrica de mesa, protegida por una pantalla de cristal esmerilado, y un cubo de plástico o metal para los desechos.

LA ELECCIÓN DEL MICROSCOPIO – Es muy difícil dar consejos sobre el tipo de microscopio que conviene adquirir. Existen cientos de modelos, desde los que pueden comprarse por relativamente poco dinero, hasta los que cuestan enormes cantidades. El tipo más sencillo tiene un ocular y un objetivo; el más complejo, dos oculares (gracias a lo cual se puede mirar con los dos ojos al mismo tiempo), cinco o seis objetivos rápidamente intercambiables, un espejo para condensar la luz sobre el objeto, varios filtros de colores, un foco de luz incorporado y otros muchos adminículos.

Como regla general podemos afirmar que, sin necesidad de salimos de los límites de nuestras posibilidades económicas, siempre resulta preferible gastar un poco más de lo previsto y adquirir un instrumento de marca con un eficaz juego de lentes.

A igualdad de precio, es mejor comprar un buen microscopio usado que uno nuevo de peor calidad; a condición, naturalmente, de que el usado, sometido al examen de un óptico de confianza, no revele imperfecciones Mecánicas u ópticas que dificulten su empleo.

MANEJO DEL MICROSCOPIO
1° Se coloca la preparación sobre el orificio de la platina y se fija con los resortes.

2″ Se hace girar el espejo hasta que la luz incida sobre la preparación.

3° Se baja el tubo óptico por medio del tornillo macrométrico hasta que toque levemente la preparación.

4° Se mira por el ocular con el ojo izquierdo, tratando de mantener el ojo derecho abierto, y con el tornillo macrométrico se va subiendo poco a poco e! tubo óptico hasta que se observe la preparación lo más clara posible.

5° Con leves movimientos de! tornillo micrométrico se obtiene una imagen nítida del objeto.

OTROS ELEMENTOS NECESARIOS
Lupa. Es un lente de aumento más gruesa en el centro que en los bordes, montada sobre un pie o soporte, o sobre un aro provisto de un mango. Sirve para observar piezas pequeñas pero macroscópicas, es decir, visibles a simple vista, porque posee muy poco aumento.

Portaobjetos (Fig. B). Son laminillas rectangulares de vidrio, de 8 cm de largo por 2 cm de ancho, donde se colocan los preparados.

Cubreobjetos (Fig. C). Son laminillas cuadradas o circulares de vidrio muy delgado, que sirven para cubrir las preparaciones microscópicas.

Tipos de microscopios: Además del microscopio tradicional, que es el descrito anteriormente, existen otros dos más sofisticados que han ido evolucionando en las últimas décadas.

Si bien en los microscopios clásicos la imagen a observar se forma de una vez, en los métodos más modernos la imagen se va obteniendo punto a punto al hacer nadir un delgado haz del iluminante que va explorando poco a poco la preparación. Es lo que se denomina barrido o scanning. La señal que la preparación transmite o refleja se dirige a un detector que la convierte en imagen visible a través de un sistema de vídeo o televisión o, más modernamente, de ordenador. Ejemplos de estos microscopios son el de rayos X y el acústico. Ambos se describen brevemente a continuación.

El microscopio de rayos X se basa en el hecho de que al disminuidla longitud de onda de la radiación incidente aumenta el poder resolutivo del aparato. Existe, sin embargo, una dificultad, y es que la mayor parte de los materiales presentan para los rayos X un índice de refracción ligeramente inferior a la unidad, con lo cual no se puede en fabricar lentes convergentes capaces de focalizarlos.

La solución está en operar por reflexión y por difracción, pero para ello es necesario disponer de una fuente de rayos X lo más puntual, monocromática y intensa posible.

El microscopio acústico funciona como uno óptico pero con ondas ultra-acústicas (se llega a secuencias de 5 GHz). La venta de este equipo radica en que las ondas acústicas penetran fácilmente en materiales opacos a otras radiaciones; por ello es especialmente útil en microelectrónica, por ejemplo, para poder observar en profundidad circuitos electrónicos sin dañarlos. La información que proporciona este tipo de microscopios no la proporciona ningún otro aparato óptico.

ACTUALMENTE SIGLO XXI: En el transcurso del siglo XX, las técnicas microscópicas han evolucionado considerablemente: de la lupa usual, con menos de 10 aumentos, se ha pasado al microscopio de efecto túnel, que permite ver —o, mejor, «palpar»— los átomos (a la escala de la diez mil millonésima de metro), pasando por los microscopios ópticos, los mejores de los cuales no superan los 2.000 aumentos, y los microscopios electrónicos, con 500.000 aumentos.

Microscopio óptico. Consta de un objetivo y un ocular. El primero está formado por un conjunto de pequeñas lentes, de distancia focal muy corta, que da una imagen real aumentada de un pequeño objeto situado muy cerca del foco. El ocular, a menudo constituido por dos lentes convergentes, funciona como una lupa y da una imagen virtual aumentada de la imagen suministrada por el objetivo. La distancia del objetivo al ocular es invariable.

Microscopio electrónico. La imagen aumentada de un objetivo se obtiene utilizando su interacción con los electrones. Los trabajos de L. de Broglie demostraron que, al igual que la luz posee un carácter corpuscular, las partículas como los electrones pueden manifestar propiedades ondulatorias. La longitud de onda asociada a un haz de electrones es del mismo orden de magnitud que la de los rayos X. Además, dado que, a diferencia de estos últimos, los electrones poseen carga eléctrica, es posible desviarlos y focalizarlos por medio de «lentes» magnéticas o electrostáticas.

Microscopio de transmisión. Está formado por un cañón de electrones obtenidos ya sea calentando un filamento ya sea por medio de una fina punta metálica sometida a un campo eléctrico; una vez acelerados con uno o varios ánodos llevados a potenciales adecuados, los electrones atraviesan una serie de «lentes» formadas por electroimanes atravesados por un canal cuyo eje es el del microscopio.

Microscopio de emisión. Este instrumento existe en dos versiones. En la primera, el objeto, situado en el seno de un campo electrostático, recibe un haz de electrones, de iones o de fotones y emite electrones secundarios, que son acelerados. Un objetivo, llamado «de inmersión», da una imagen aumentada de la superficie del objeto. En la segunda versión (microscopiode barrido), se focaliza un fino pincel de electrones sobre una muestra. La corriente de electrones secundarios creada es recogida por un conjunto fotomultiplicador. Se pueden observar así, en un monitor, superficies biológicas, defectos superficiales de metales, etc.

Microscopio de efecto túnel. De micros copio sólo tiene el nombre, ya que su fundamento estriba en controlar, con una precisión de 10 nanómetros, la posición de una micro-sonda que se mueve por encima de la superficie estudiada. A distancias de este orden, los electrones pueden atravesar el intervalo entre la capa atómica superficial y la sonda, pero no pueden ascender desde la capa subyacente. Se obtiene así una imagen de la superficie del objeto a escala atómica.

UN POCO DE HISTORIA…

A finales del siglo XVIII, el diseño de los microscopios había avanzado tanto, que casi se alcanzaron los límites teóricos del poder separador utilizando luz visible.

Sin embargo, se han hecho otros inventos desde entonces. Por ejemplo, en la mayoría de los microscopios la imagen sólo se puede ver con un ojo. Ello está bien para períodos cortos de tiempo, pero es incómodo cuando el microscopio’ se utiliza constantemente. Ahora existen microscopios binoculares, en los que el camino de la luz está dividido de tal forma que la imagen se puede ver con los dos ojos. Otros microscopios proyectan la imagen sobre una pantalla, para que se pueda ver más fácilmente.

En la práctica, los microscopios luminosos son idóneos para la mayoría de los fines, aunque no cuando se quieren observar pequeños detalles. Se pueden lograr mejores resultados en el poder separador, utilizando radiaciones de menor longitud de onda, como en el moderno microscopio de luz ultravioleta. Como su nombre indica, este instrumento utiliza luz ultravioleta (que es similar a la luz visible, pero de menor longitud de onda).

El cristal de las lentes utilizadas con luz visible no es el adecuado para la luz ultravioleta, que no pasaría por ellas. Se las reemplaza por lentes de cristal de cuarzo. Como la luz ultravioleta es invisible, se utilizan dispositivos “especiales para hacer la imagen visible. La imagen se enfoca sobre una pantalla fluorescente, que reluce cuando recibe la radiación.

El microscopio de luz ultravioleta supuso un gran adelanto sobre los anteriores, pero ha sido mejorado por el microscopio electrónico, que es el instrumento más moderno y avanzado, y de mayor poder separador, actualmente en uso. El obstáculo, en este caso, radica en que, aunque en principio es un instrumento muy simple, en la práctica constituye un equipo extremadamente complicado, lo que hace que su precio sea muy elevado. Los microscopios comunes tienen un precio más económico.

Fue posible realizar el microscopio electrónico luego de la invención del tubo de rayos catódicos, a principios del siglo XX. El tubo de rayos catódicos es un tubo revestido con material fluorescente en uno de sus extremos, que constituye la pantalla. En el otro extremo, se encuentra el cátodo, al que se calienta para que libere electrones. Frente al cátodo se encuentra el ánodo. Los electrones surgen del cátodo por la diferencia de potencial entre él y el ánodo. Se aceleran en el espacio entre cátodo y ánodo, y pasan a través de un orificio del ánodo para incidir sobre la pantalla. Un objeto colocado a su paso motiva una sombra sobre la pantalla.

Estos electrones se comportan como si constituyesen un tipo de radiación de longitud de onda muy pequeña y, en consecuencia, se pueden utilizar para obtener grandes aumentos (es decir, con gran poder separador).

El sistema de lentes es parecido al que se utiliza en el microscopio compuesto de luz visible. Los electrones pueden ser desviados de su camino por campos magnéticos. Lentes magnéticas circulares se utilizan para enfocar los haces de electrones, de la misma forma que se emplean las lentes de cristal para enfocar los rayos de luz. Las muestras utilizadas se colocan sobre láminas muy delgadas. Las partes opacas de la muestra proyectan sombra sobre la pantalla o sobre una película fotográfica, con lo que se obtiene la denominada micrografía electrónica. Muchos microscopios electrónicos aumentan los objetos más de 200.000 veces.

Es posible mejorar el poder separador o resolutivo del microscopio electrónico, utilizando electrones de movimiento más rápido y longitud de onda más pequeña. El perfeccionamiento del microscopio electrónico constituye aún materia de investigación. La mayoría de los microscopios luminosos y electrónicos hace pasar un haz de la radiación a través de un objeto, con lo que se puede observar su sombra.

En un nuevo tipo de microscopio, el microscopio de emisión de campo, se hace emitir al objeto su propia radiación: el objeto emite un flujo de electrones, que surgen de él, al aplicar un campo eléctrico muy elevado; tales electrones dan lugar a su imagen. Con esta técnica se pueden observar muchos más detalles. De hecho, se ha conseguido fotografiar grandes moléculas.

Gen Genes Cromosoma ADN La Celula Proyecto Genoma Humano

Gen,Genes, Cromosoma, ADN
La Célula-Proyecto Genoma Humano

El Genoma Humano es el número total de cromosomas del cuerpo. Los cromosomas contienen aproximadamente 80.000 genes, los responsables de la herencia. La información contenida en los genes ha sido decodificada y permite a la ciencia conocer mediante tests genéticos, qué enfermedades podrá sufrir una persona en su vida.

También con ese conocimiento se podrán tratar enfermedades hasta ahora incurables. Pero el conocimiento del código de un genoma abre las puertas para nuevos conflictos ético-morales, por ejemplo, seleccionar que bebes van a nacer, o clonar seres por su perfección.

Esto atentaría contra la diversidad biológica y reinstalaría entre otras la cultura de una raza superior, dejando marginados a los demás. Quienes tengan desventaja genética quedarían excluidos de los trabajos, compañías de seguro, seguro social, etc. similar a la discriminación que existe en los trabajos con las mujeres respecto del embarazo y los hijos.

Un genoma es el número total de cromosomas, o sea todo el D.N.A. (ácido desoxirribonucleico) de un organismo, incluido sus genes, los cuales llevan la información para la elaboración de todas las proteínas requeridas por el organismo, y las que determinan el aspecto, el funcionamiento, el metabolismo, la resistencia a infecciones y otras enfermedades, y también algunos de sus procederes.

 En otras palabras, es el código que hace que seamos como somos. Un gen es la unidad física, funcional y fundamental de la herencia. Es una secuencia de nucleótidos ordenada y ubicada en una posición especial de un cromosoma. Un gen contiene el código específico de un producto funcional.

El DNA es la molécula que contiene el código de la información genética. Es una molécula con una doble hebra que se mantienen juntas por unioneslábiles entre pares de bases de nucleótidos. Los nucleótidos contienen las bases Adenina(A), guanina (G), citosina (C) y timina (T). (ver Estructura ADN)

La importancia de conocer acabadamente el genoma es que todas las enfermedades tienen un componente genético, tanto las hereditarias como las resultantes de respuestas corporales al medio ambiente.

El Proyecto Genoma Humano es una investigación internacional que busca seleccionar un modelo de organismo humano por medio del mapeo de la secuencia de su DNA. Se inició oficialmente en 1990 como un programa de quince años con el que se pretendía registrar los 80.000 genes que codifican la información necesaria para construir y mantener la vida. Los rápidos avances tecnológicos han acelerado los tiempos esperándose que se termine la investigación completa en el 2003.

Cuando faltan sólo tres años (2003) para el cincuentenario del descubrimiento de la estructura de la doble hélice por parte de Watson & Crick (1953), se ha producido el mapeo casi completo del mismo.

Los objetivos del Proyecto son:

· Identificar los aproximadamente 100.000 genes humanos en el DNA.

· Determinar la secuencia de 3 billones de bases químicas que conforman el DNA.

· Acumular la información en bases de datos.

· Desarrollar de modo rápido y eficiente tecnologías de secuenciación.

· Desarrollar herramientas para análisis de datos.

· Dirigir las cuestiones éticas, legales y sociales que se derivan del proyecto.

Este proyecto ha suscitado análisis éticos, legales, sociales y humanos que han ido más allá de la investigación científica propiamente dicha. (Declaración sobre Dignidad y Genoma Humanos, UNESCO)

El propósito inicial fue el de dotar al mundo de herramientas trascendentales e innovadoras para el tratamiento y prevención de enfermedades.

Como se expresó, el genoma es el conjunto de instrucciones completas para construir un organismo, humano o cualquiera. El genoma contiene el diseño de las estructuras celulares y las actividades de las células del organismo.

El ADN                           

Para Entender Mas el ADN

El núcleo de cada célula contiene el genoma que está conformado por 24 pares de cromosomas, los que a su vez contienen alrededor de 80.000 a 100.000 genes, los que están formados por 3 billones de pares de bases, cuya secuencia hace la diferencia entre los organismos.

Se localiza en el núcleo de las células. Consiste en hebras de DNA estrechamente arrolladas y moléculas de proteína asociadas, organizadas en estructuras llamadas cromosomas. Si desenrollamos las hebras y las adosamos medirían mas de 5 pies, sin embargo su ancho sería ínfimo, cerca de 50 trillonesimos de pulgada.

El DNA que conforma el genoma, contiene toda la información necesaria para construir y mantener la vida desde una simple bacteria hasta el organismo humano. Comprender como el DNA realiza la función requiere de conocimiento de su estructura y organización.

La molécula de DNA consiste de dos hebras arrolladas helicoidalmente, una alrededor de la otra como escaleras que giran sobre un eje, cuyos lados hechos de azúcar y moléculas de fosfato se conectan por uniones de nitrógeno llamadas bases.

Cada hebra es un acomodamiento linear de unidades similares repetidas llamadas nucleótidos, los que se componen de un azúcar, un fosfato y una base nitrogenada. Cuatro bases diferentes están presentes en la molécula de DNA y son:

· Adenina (A)

· Timina (T)

· Citosina (C)

· Guanina (G)

El orden particular de las mismas es llamada: secuencia de DNA, la cual especifica la exacta instrucción genética requerida para crear un organismo particular con características que le son propias. La adenina y la guanina son bases púricas, en cambio la citosina y la timina son bases pirimidínicas.

Las dos hebras de DNA son mantenidas juntas por uniones entre bases que forman los pares de bases. El tamaño del genoma es usualmente basado en el total de pares de bases. En la especia humana, contiene aproximadamente 3 billones de pares de bases. Otros organismos estudiados con motivo de éste estudio fueron la bacteria Escherichia coli, la mosca de la fruta, y las ratas de laboratorio.

Cada vez que la célula se divide en células hijas, el genoma total se duplica, en el caso del genoma humano esta duplicación tiene lugar en el núcleo celular. Durante la división, el DNA se desenrolla y rompe las uniones entre pares de base permitiendo a las hebras separarse. Cada hebra dirige la síntesis de una nueva hebra complementaria con nucleótidos libres que coinciden con sus bases complementarias de cada hebra separada.

Existe una forma estricta de unión de bases, así se forman pares de adenina – timina (AT) y citosina – guanina (CG). Cada célula hija recibe una hebra vieja y una nueva. Cada molécula de DNA contiene muchos genes, la base fisica y funcional de la herencia. Un gen es una secuencia específica de nucleótidos base, los cuales llevan la información requerida para la construcción de proteínas que proveerán de los componentes estructurales a las células y tejidos como también a las enzimas para una esencial reacción bioquímica.

El genoma humano comprende aproximadamente entre 80.000 y 100.000 genes. Sólo el 10% del genoma incluye la secuencia de codificación proteica de los genes. Entremezclado con muchos genes hay secuencias sin función de codificación, de función desconocida hasta el momento.

Los tres billones de pares de bases del genoma humano están organizados en 23 unidades distintas y físicamente separadas, llamadas cromosomas. Todos los genes están dispuestos linealmente a lo largo de los cromosomas. EL núcleo de muchas células humanas contiene dos tipos de cromosomas, uno por cada padre. Cada set, tiene 23 cromosomas simples, 22 de tipo autosómico y uno que puede ser X o Y que es el cromosoma sexual. Una mujer normal tendrá un par de cromosomas X (XX), y un hombre normal tendrá un cromosoma X y otro Y (XY). Los cromosomas contienen aproximadamente igual cantidad de partes de proteína y DNA. El DNA cromosómico contiene un promedio de 150 millones de bases.

Los cromosomas pueden ser evidenciables mediante microscopio óptico y cuando son teñidos revelan patrones de luz y bandas oscuras con variaciones regionales. Las diferencias en tamaño y de patrón de bandas permite que se distingan los 24 cromosomas uno de otro, el análisis se llama cariotipo.

Las anomalías cromosómicas mayores incluyen la pérdida o copias extra, o pérdidas importantes, fusiones, translocaciones detectables microscópicamente. Así, en el Síndrome de Down se detecta una tercer copia del par 21 o trisomía 21.

Otros cambios son tan sutiles que solo pueden ser detectados por análisis molecular, se llaman mutaciones. Muchas mutaciones están involucradas en enfermedades como la fibrosis quística, anemias de células falciformes, predisposiciones a ciertos cánceres, o a enfermedades psiquiátricas mayores, entre otras.

Toda persona posee en sus cromosomas frente a cada gen paterno su correspondiente gen materno. Cuando ese par de genes materno-paterno (grupo alemorfo) son determinantes de igual función o rasgo hereditario, se dice que el individuo es homocigótico para tal rasgo, por el contrario se dice que es heterocigótico. Como ejemplo podemos citar que un gen transmita el rasgo hereditario del color de ojos verde y el otro el color de ojos marrón. Se trata de heterocitogas para el rasgo color de ojos. Si a su vez, uno de esos genes domina en la expresión del rasgo al otro gen enfrentado, se dice quees un gen heredado dominante, de lo contrario se dice que es recesivo.

Las instrucciones de los genes son transmitidas indirectamente a través del ARN mensajero (ARNm), el cual es un intermediario transitorio. Para que la información de un gen sea expresada, un RNA complementario produce un proceso llamado transcripción, desde la plantilla del DNA del núcleo. Este RNAm, se mueve desde el núcleo hasta el citoplasma celular, donde sirve como plantilla para la síntesis protéica.

La maquinaria celular que sintetiza proteínas traduce los códigos en cadenas de aminoácidos que constituyen la proteína molecular. En el laboratorio se puede aislar el ARNmy ser utilizado como plantilla para sintetizar un DNA complementario (DNAc), el cual puede ser usado para ubicar los genes correspondientes en el mapa cromosómico.

Desde un punto de vista no científico, el mapa del genoma humano es una herramienta genética que permite estudiar la evolución del hombre y que cambiará drásticamente la medicina actual tal como la conocemos. Será una cambio de paradigma. Permitirá el tratamiento de enfermedades hasta ahora sin cura. Las investigaciones estuvieron a cargo fundamentalmente de Estados Unidos (Instituto Nacional de Investigación del Genoma Humano -NHGRI- de Maryland) y Gran Bretaña (Centro Sanger en Cambridge), pero también acompañaron Francia, Alemania, Japón y China.

Hoy el mapa del genoma está casi completado. Se abre también el camino para la manipulación genética, motivo por el cual se han dictado documentos tendientes a acotar ese aspecto. La empresa privada Celera Genomics de Rockville (EEUU), es la que lidera los procesos. La investigación duró diez años e insumió cerca de 2.000 millones de costo.

La fiabilidad del mapa de 3.000 millones de pares de bases llegará a un 99,99%. Además se conocerá el número preciso de genes del organismo calculado entre 60.000 y 100.000. Actualmente el 85% del genoma está detalladamente mapeado.

El mito del ser humano inmortal y perfecto se asocia a la aplicación practica de los conocimientos del mapa del genoma humano. Como se puede apreciar, la búsqueda de la raza perfecta buscada hace años por Hitler resulta ser una aspiración de la raza humana ahora encarnada en el proyecto del genoma humano.

El conocimiento del genoma permitirá que se creen nuevas drogas terapéuticas que desplazarán a las anteriores en la medida que los presupuestos permitan comprarlas. De este modo se podrá polarizar la industria farmacéutica. Las nuevas drogas prometen tener menores efectos colaterales que las actuales.

Se puede comparar la medicina tradicional como a un técnico que pone a punto un programa de computación ajeno con otro que conoce el código del mismo. Hoy ya con el conocimiento del genoma humano, conocemos el código, antes sólo podíamos configurar el programa. Será pues el mayor avance médico de la humanidad.

Se le podrá informar a una persona, que puede comer alimentos grasos porque carece de predisposición genética a la obesidad y a enfermedades cardíacas, pero que debe huir del alcohol porque es genéticamente propenso al alcoholismo. Además el grado de certidumbre que otorga el conocimiento del código genético resultaría más creíble para la persona en cuestión, ya que sabe que lo que se le informa será absolutamente cierto. Es una predicción absoluta, de su futuro. Podríamos hablar de genomancia o sea la adivinación del futuro mediante el código genético.

Si una persona carece de un determinado tipo de célula que le produce una enfermedad, la misma se podrá cultivar y luego colocar al sujeto. Claro que ésto debería en principio ser realizado periódicamente ya que el sujeto carecería de la habilidad propia para restaurar la función. Pero la terapia de línea germinal, apuntaría a solucionar ese inconveniente, ya que afectaría las futuras generaciones celulares. Esto es impredecible y éticamente intolerable, pero de no serlo o de permitirse se borrarían del planeta el síndrome de Down o el sida.

Hasta ahora, el médico ha tenido muy clara su tarea: devolver al paciente al estado natural de salud. Pero cuando pueda manipular el programa vital, ¿resistirá la tentación de mejorar el modelo?

Dentro de los llamados beneficios anticipados del Proyecto figuran a nivel de Medicina molecular, la posibilidad de mejorar el diagnostico de enfermedades, detección temprana de predisposiciones genéticas a ciertas enfermedades, el diseño racional de drogas, terapia génica, sistemas de control para drogas y farmacogenomas.

Se ha estudiado un gen que determina la producción de la proteína llamada SPARC, la que normalmente impide al organismo atacar y anular células cancerígenas. La terapia génica en éstos casos actúa permitiendo que las células cancerosas sean atacadas por el organismo.

A nivel de genomas microbianos, sirvió para explorar nuevas fuentes de energía (bioenergía), monitoreo del medio ambiente para detección de poluciones, protección contra guerra Química y biológica y eficiente limpiado de residuos tóxicos. También es útil para estimar el daño y riesgo por exposición a la radiación, agentes mutagénicos, toxinas cancerígenas y reducción de probabilidad de mutaciones hereditarias. La identificación de oncogenes (genes que permiten que un sujeto que se exponga a ciertas sustancias desarrolle un determinado tumor, ejemplo, quien posea el oncogen para el cáncer de pulmón y fume cigarrillos desarrollará cáncer de pulmón a diferencia de quien no tenga dicho oncogen).

En bioarqueología, evolucionismo y migración humana tiene su utilidad en las mutaciones de linaje, migraciones de diferentes grupos poblacionales basados en el DNA mitocondrial, mutaciones del cromosoma Y, además de comparar los cambios evolutivos con eventos históricos.

En identificación forense, para potenciales sospechosos en los cuales el DNA puede conducir a liberar a personas que fueran acusadas de crímenes injustamente, para identificar víctimas de catástrofes, paternidad y otras relaciones familiares, identificar y proteger especies en peligro, detectar bacterias que pueden polucionar agua, aire, alimentos, determinar compatibilidad de órganos donantes en programas de trasplante, determinar el pedigrí en ganados y para autenticar productos de consumo como caviar, vinos.

En agricultura, ganadería y bioprocesamientos, se utiliza para mejorar la resistencia de cultivos ante insectos, sequías, para hacerlos más productivos y saludables igualmente para producir animales más saludables y nutritivos, elaborar biopesticidas, vacunas comestibles y nueva limpieza del medio ambiente de plantas como tabaco.

Los problemas derivados de la investigación genética son la equidad en su uso por parte de aseguradoras, seguro social, escuelas, agencias de adopción, cumplimiento de la ley, instituciones militares. A quien pertenece la potestad del control? Otro problema es el impacto psicológico y la estigmatización debido a diferencias individuales y acerca de cómo influirá a la sociedad el determinismo genético. El personal que cuida de la salud aconsejará a los padres acerca de los riesgos y limitaciones de la tecnología genética. Qué tan confiable será, además de útil, el testeo genético fetal?

Respecto de la terapia génica usada para tratar o curar trastornos genéticos plantea la pregunta acerca de qué es una discapacidad o trastorno y quién decide acerca del mismo.

Las dishabilidades son enfermedades?

 Deben ser curadas o prevenidas?

El mejoramiento génico incluye el uso de terapia genética para suplir características como la altura que un padre podría querer en sus hijos, pero que no significa la prevención de una enfermedad, sino la búsqueda de un ser perfecto acorde a un ideal.

Si ésto se vuelve una práctica común, como podría afectar la diversidad genética?

Finalmente, que consecuencias sociales traería a la humanidad?

La equidad en el uso de las tecnologías génicas, plantea quién tendrá acceso a la misma y quien pagará por su uso.

Los estudios clínicos incluyen educación de proveedores de servicios de salud, pacientes y público, acerca de cómo se implementarán los testeos genéticos.

En 1992, Craig Venter, investigador del NHI (National Health Institute) solicitó patentes por 2750 fragmentos de ADN. El original pedido de patentamiento fue rechazado por no cumplir con los requisitos técnicos de las patentes ya que las funciones de dichos fragmentos no estaban definidas todavía, al menos públicamente. Sin embargo el hecho devino en una furia de patentamientos similares. Actualmente Venter y su socio Hunkapiller, experto en bioinformática, trabajan en Celera Genomics y su meta es descifrar el genoma en su totalidad en el 2001.

 

La Estructura del ADN Crick y Watson Cristalografia Por Rayos X

La Estructura del ADN Crick y Watson
Cristalografia Por Rayos X

FRANCIS CRICK Y JAMES DEWEY WATSON:
PROYECTO GENOMA HUMANO
La cristalografía por rayos-X:
Francis Crick nació en Northampton, Inglaterra, en 1916. Estudió física en la Universidad de Londres, y trabajó con radares durante la Segunda Guerra Mundial. En 1946 asistió a una conferencia de Linus Pauling que le abrió los ojos a las posibilidades de un descubrimiento original en biología molecular. Esto lo llevó a realizar investigaciones de biología en Cambridge; en 1949, cuando tenía treinta y tres años, se sumó al Consejo de Investigaciones Médicas del Laboratorio Cavendish en la universidad.

cientificos que estudiaron la estructura del ADN

James Watson y Francis Crick junto a uno de sus modelos de la molécula del ADN en el Laboratorio Cavendish de Cambridge en 1953 / University of Cambridge

 James Dewey (Jim) Watson nació en Chicago, en 1928, y era un niño prodigio. Entró en la Universidad de Chicago a los quince años y se graduó a los diecinueve; tres años después obtuvo un doctorado por la Universidad de Indiana. Mientras preparaba el doctorado, leyó un libro del físico austriaco ErwinSchródinger titulado ¿Qué es la vida?, que lo persuadió de que el estudio de los genes ofrecía excitantes perspectivas de descubrimientos.

En 1951 asistió a una conferencia en Nápoles, donde conoció a Maurice Wilkins, un físico neozelandés de treinta y tres años nacido en las Islas Británicas, que había trabajado con la bomba atómica en Estados Unidos, pero que se había alejado de la física nuclear horrorizado por las consecuencias de ese trabajo.

Como Watson, Wilkins había sido inspirado por ¿Qué es la vida? de Schroidinger. Trabajaba en la estructura de las moléculas orgánicas grandes, en el Consejo de Investigaciones Médicas del King’s College de la Universidad de Londres, usando la misma técnica del análisis de difracción por rayos-X que el equipo de Pauling en la CalTech.

La descripción que le hizo Wilkins de su trabajo reforzó el interés dc Watson por el tema, y fue aceptado para realizar investigaciones en el Laboratorio de Cavendish. Llegó a Cambridge poco después de cumplir veintitrés años, y estableció inmediatamente una buena relación con Crick, que por entonces tenía treinta y cinco años.

Crick y Watson estaban dispuestos a investigar la estructura del ADN, pero sus superiores los desanimaron, ya que eran conscientes del trabajo que llevaban a cabo en el King’s College. Se suponía que los trabajos del King’s eran un esfuerzo común de Wilkins y una química británica de treinta años llamada Rosalind Franklin, pero en realidad ambos estaban enfrascados en una lucha de personalidades. Franklin era una cristalógrafa muy experimentada.

La cristalografía era una tecnología exigente, basada en la técnica de difracción de los rayos-X, esencial en la investigación de la estructura de las moléculas grandes. Se trataba de una tecnología en la que ni Watson ni Crick tenían ninguna experiencia, así que hicieron lo mejor que pudieron con la única alternativa a su alcance, la construcción de modelos. Pero sin las pistas que podía proporcionar la cristalografía, fueron incapaces de realizar progresos reales, y sólo era cuestión de tiempo que el equipo de Pauling, en la CalTech, que dominaba ambas técnicas, diera con la respuesta correcta.

El libro de Pauling, La naturaleza del enlace químico, se convirtió en la Biblia de Watson en sus esfuerzos por construir un modelo plausible, y para mayor frustración, tanto el director del Laboratorio de Cavendish, Lawrence Bragg, como el director de la Unidad de Cristalografía, Max Perutz, eran cristalógrafos expertos. Pero insistieron en que la buena voluntad del Consejo de Investigaciones Médicas no debía correr el riesgo de duplicar la investigación del King’s College.

No era cuestión de determinar la composición química de la molécula de ADN. Por entonces se sabía que estaba compuesta por una serie de bases de cuatro clases: timina (T), guanina (G), citosina (C) y adenina (A), unidas por parejas en una estructura de fosfato-azúcar. Pero nadie sabía cuál era la forma de la estructura ni cómo se unían las parejas de bases. Sin las respuestas a estas preguntas, no se podía comprender realmente el mecanismo detallado de la herencia y no existía ninguna posibilidad de aplicar el conocimiento teórico a los problemas de la vida común como las enfermedades hereditarias.

Irónicamente, el descubrimiento definitivo llegó poco después de que Crick y Watson asistieran a un seminario en el que parecieron malinterpretar la presentación que Franklin hizo de su investigación. Volvieron a Cambridge, construyeron un modelo e invitaron a la pareja de Londres para que lo viera.., pero Franklin echó por tierra todas sus ideas. No mucho después, con la ayuda de Wilkins, Watson consiguió ver una de las cristalografías por rayos-X de Franklin con una claridad increíble. En cuanto la vio, estuvo seguro de que sabía cómo interpretarla.

De vuelta a Gambridge, Crick y él consiguieron permiso para utilizar los servicios del taller del laboratorio para construir un modelo de la molécula a gran escala. Tras cinco semanas frenéticas de prueba y error, el modelo estaba listo para ser revelado. Tenía forma de doble hélice, una larga y tortuosa escalera en la que los peldaños eran innumerables secuencias de pares de bases: lA, CG, AT, TA, CC, etc.

la doble hélice

La estructura del ADN y los Genes:

Los rasgos principales de una molécula de ADN son:

a. Una “escalera en espiral”, con barandillas de azúcar-fosfato formando una doble hélice.

b. Una larga sucesión de «escalones», hecha a base de parejas entrelazadas de bases de adenina (A) y timina (T), o guamina (G) y citosina (C).

1. Un «gen» normalmente tiene una longitud de varios miles de bases.

2. La secuencie de bases en os genes codifica a información necesaria para fabricar las proteínas que determinan la anatomía y la fisiología de toda criatura viviente.

3. Los genes están localizados en los cromosomas, que son largas hileras de proteína y ADN mezclados.

4. En la reproducción sexual, la secuencia de genes del óvulo fertilizado es diferente de la de los padres, haciendo que todos los individuos descendientes sean únicos.

5. En gemelos idénticos, la secuencie genética es diferente de la de los padres pero idéntica en cada hermano, porque son el resultado del fraccionamiento de un óvulo fertilizado.

6. Cuando las células se dividen y se multiplican durante el crecimiento del embrión, las parejas de bases se abren como una cremallera. Cada mitad de una pareja de bases tiene la habilidad de hacer «crecer» una nueva compañera en su nuevo hogar, asegurando así que la «información» de cada célula es la misma.

El 7 de marzo de 1953 se la enseñaron a sus colegas. El 25 de abril, un corto y modesto escrito en la revista Nature, titulado La estructura molecular de los ácidos nucleicos, informó al mundo de uno de los descubrimientos más significativos en la historia de la ciencia, aunque quedó un poco ensombrecido por la primera ascensión al Everest seis semanas después. Pero su importancia pronto quedó establecida y dio origen a una explosión de investigaciones genéticas y de descubrimientos que todavía continúa.

En 1962, Crick, Watson y Wilkins compartieron el Premio Nobel de Medicina. El nombre de Rosalind Franklin no fue mencionado, había muerto de cáncer en 1958, a los treinta y siete años, víctima —como Marie Curie— de la radiación a la que se había expuesto durante su trabajo. No se conceden premios Nobel a título póstumo. (PROYECTO GENOMA HUMANO)

Publicación del Descubrimiento de Watson y Crick en la Revista NTURE

Publicación del Descubrimiento de Watson y Crick en la Revista NATURE

PARA SABER MAS…
En sus comienzos, la genética fue totalmente ignorada; hoy, es al contrario. Mendel no recibió atención alguna, porque su trabajo no parecía importante; sin embargo, en la actualidad los genes están por todas partes, nos fascinan sus promesas y nos inquietan sus amenazas. Los genetistas han hecho hincapié rápidamente tanto en unas como en otras. Por algo se ha dicho que las cuatro letras del código genético están en boca de todo el mundo.

Los avances de las últimas décadas han sido sorprendentes. Disponemos de la secuencia completa del ADN que compone los 60.000 genes activos necesarios para formar un ser humano y pronto tendremos la de todo el llamado ADN «basura» (que quizá revele más cosas de lo que su nombre indica). 10.000 enfermedades distintas poseen un componente hereditario y, en principio, sabemos por lo menos los genes que están implicados.

Esto suscita tanto esperanzas como temores. En el caso de las enfermedades controladas por un gen, como la anemia de células falciformes o la fibrosis quística, resulta más fácil identificar los portadores y los fetos en situación de riesgo. Como es posible dañar un gen de muchas maneras (hay más de 1.000 mutaciones conocidas responsables de la fibrosis quística), las pruebas no son sencillas y la mejor solución es decir a los afectados que son portadores, más que tranquilizarles diciéndoles que no lo son. Con todo, la decisión de quedarse embarazada o continuar con el embarazo será algo más fácil cuando las pruebas resulten menos ambiguas.

Es posible adquirir en el mercado pruebas para detectar los genes que predisponen a padecer fibrosis quística y cáncer de mama; y el desarrollo de «chips» de ADN capaces de examinar muchos genes de forma simultánea indica que pronto se venderán más. La medicina tendrá que tratar cada vez más casos de personas que, de forma acertada o no, han recibido el diagnóstico de estar en situación de riesgo.
Ahora somos conscientes de que mucha gente fallece por culpa de enfermedades genéticas o con un componente genético. En algunos casos, será posible comunicarles su grave situación; pero ¿por qué querríamos hacerlo? A veces, la información resulta útil. Quienes hereden una predisposición a determinadas formas de cáncer de colon, por ejemplo, pueden recibir la ayuda de la cirugía mucho antes de que se manifieste la enfermedad. En el caso de otras enfermedades, es posible advertir a personas en situación de alto riesgo de que eviten ambientes peligrosos para ellos. Fumar es peligroso, pero pocos fumadores logran dejarlo. No obstante, cualquier persona portadora de una forma alterada de una enzima responsable de fluidificar la mucosidad de los pulmones se ahogaría en sus propios esputos si fumara; lo que podría convencerla de que no lo hiciera. El conocimiento también puede resultar peligroso, sobre todo cuando están implicados los seguros médicos.

El tipo de medicina con más éxito siempre ha sido la prevención en lugar de la curación. La genética no es distinta y la posibilidad de que la terapia génica sustituya el ADN dañado a la vuelta de la esquina, como los últimos diez años. La cirugía genética (la capacidad de cortar fragmentos de ADN y colocarlos a sitios nuevos) ha conseguido avances notables, pero hasta el momento no ha hecho mucho para curar enfermedades.

A pesar de todo, es posible que ayude a impedir que la población mundial muera de hambre, por lo menos ésa es la opinión de los entusiastas de los alimentos transgénicos. Puede que tengan razón. Ha resultado increíblemente sencillo mover genes vegetales de un sitio a otro. Ya existen cultivos que han sido modificados para conferirles resistencia a parásitos o a herbicidas artificiales (lo que implica la posibilidad de fumigar el campo sin que la cosecha salga perjudicada).

El optimismo comercial en Europa, si no en Estados Unidos, ha coincidido con la preocupación de la opinión pública sobre los riesgos que esos alimentos suponen para la salud. Que la gente se preocupe por el remoto riesgo de que los alimentos transgénicos sean perjudiciales para la salud cuando está dispuesta a consumir hamburguesas con queso que, decididamente, sí suponen un riesgo, es algo que deja perplejos a los científicos, pero la ciencia no es tan importante como aquello que los consumidores están dispuestos a aceptar. A menos que se produzca un cambio de actitud, es poco probable que se cumpla la esperanza de introducir genes de nutrientes esenciales en los cultivos del Tercer Mundo.

Fuente Consultada:
Historias Curiosas de la Ciencia de Ciril Aydon
GENÉTICA Para Todos Jones-Van Loon
El Jardín de Newton de José Manuel Sánchez Ron

El ADN:Genes y cromosomas El Genoma Humano Objetivos del proyecto

CONCEPTOS BÁSICOS  Y LOS OBJETIVOS DEL PROYECTO GENOMA HUMANO:  

La genética estudia los genes y la herencia. Dentro de las células, los cromosomas portan los genes o «instrucciones» que determinan todos los aspectos de un organismo. Los cromosomas son moléculas largas de ADN o ácido desoxirribonudeico. En el 2000, los científicos presentaron el “borrador” del genoma humano, la secuencia de miles de ácidos nucleicos individuales que forman una molécula de ADN. La decodificación del genoma podría favorecer los tratamientos para enfermedades hereditarias.

IDEAS FUNDAMENTALES DE LA GENÉTICA

* La genética estudia la transmisión de los caracteres de una generación a otra.

* El ADN contiene toda la información de las características de los individuos.

* La apariencia física es producto del genotipo.

* Las mutaciones son cambios azarosos en el ADN, debidas a factores como los virus, los químicos, las radiaciones, entre otros. Estas mutaciones pueden ocasionar enfermedades o la muerte.

* Las mutaciones han sido la materia prima en la evolución de la vida.

adn proyecto genoma

Proyecto Genoma Humano: El denominado Proyecto Genoma Humano se inició en 1990 por un consorcio de instituciones de diferentes países para llegar a conocer la secuencia completa del ADN del ser humano. Pese a que en los planes iniciales no contemplaban la posibilidad de secuenciar el ADN del ser humano antes de 2003, en abril de 2000 se consiguió la y secuenciación de casi la totalidad del mismo.

Paralelamente, en septiembre de 1998, una empresa privada llamada Celera Genomics System había iniciado el mismo proyecto. Se estableció formalmente el denominado Proyecto Genoma Humano, liderado por Estados Unidos, para determinar la estructura de nuestro genoma.

El resultado final se anunció el 11 de febrero de 2001: tenemos unos 30.000 genes, poco más del doble de una mosca y menos que el arroz, según se comprobó más tarde. Ahora sabemos que desde el punto de vista genético no nos diferenciamos demasiado de los chimpancés, con los que compartimos el 97,7 por ciento del genoma, ni de los orangutanes (96,4 por ciento), resultados que, obviamente, reivindican a Darwin. Las diferencias cuantitativas son pequeñas, pero no así siempre las cualitativas.

Los fines últimos del plan son los siguientes:

Los objetivos del Proyecto Genoma son:

· Identificar los aproximadamente 100.000 genes humanos en el DNA.

· Determinar la secuencia de 3 billones de bases químicas que conforman el DNA.

· Acumular la información en bases de datos.

· Desarrollar de modo rápido y eficiente tecnologías de secuenciación.

· Desarrollar herramientas para análisis de datos.

· Dirigir las cuestiones éticas, legales y sociales que se derivan del proyecto.


Para llevar a cabo este trabajo es necesario poder manejar de manera eficaz los millones de pares de bases. La fragmentación del material genético en pequeños fragmentos de pocas kilobases (1 kilobase = 1.000 bases) se inició en los años ochenta, de forma que se empezaron a crear las llamadas librerías genómicas. Con ellas se realizan los mapas físicos o se puede establecer el orden de las secuencias en el cromosoma.

La técnica seguida en el proyecto es la siguiente: mediante las llamadas endonucleasas de restricción se va fragmentando el ADN y se van obteniendo el mapeado y la secuenciación de cada uno de estos fragmentos o clones que posteriormente  analizan y comparan entre sí para determinar cuáles de ellos presentan lugares de restricción iguales, lo que permite su ordenación según ese criterio.

Una vez se han seleccionado varios fragmentos o clones de un gen y se ha establecido su orden, se vuelven a seleccionar cada uno de estos clones para seguir fragmentándolos en trozos más pequeños que permitan leer su secuencia. Mediante estos trabajos en la li nulidad se conoce el 90% de la secuencia del genoma humano y se ha comprobado que está constituido por aproximadamente 31.000 genes y no por los 100.000 esperados inicialmente.

El genoma humano presenta algunas características que se han podido conocer gracias a estas investigaciones:

– Los genes no se distribuyen de manera homogénea a lo largo de los cromosomas. El cromosoma que presenta menor número de genes a lo largo de su estructura es el cromosoma que condiciona el sexo masculino o cromosoma Y.

– El genoma humano es aproximadamente 25 veces mayor que el de un gusano o una mosca. Gran cantidad del material que se ha secuenciado se denomina material basura, pues no contiene la información para la síntesis de proteínas.

– Los genes constituyen alrededor del 5% del genoma, evidentemente la parte más importante de éste. Cada uno de estos genes tiene capacidad para la síntesis de una, dos o más proteínas. La capacidad del genoma humano para la codificación de proteínas es, portante, enorme, aunque el número de genes sólo represente el doble de los existentes en la mosca del vinagre.

– Se han identificado 1.038 grupos de proteínas comunes con otras especies. Las diferencias en la fisiología de los vertebrados, y por tanto del ser humano, frente a otras especies, se basan únicamente en un 7% de proteínas específicas.

– Se han encontrado polimorfismos en la secuencia del genoma cada 1.300 bases.

Este proyecto ha suscitado análisis éticos, legales, sociales y humanos que han ido más allá de la investigación científica propiamente dicha. (Declaración sobre Dignidad y Genoma Humanos, UNESCO) El propósito inicial fue el de dotar al mundo de herramientas trascendentales e innovadoras para el tratamiento y prevención de enfermedades.

CONCEPTOS DE ADN Y GENES

El núcleo de una célula cualquiera es el “centro de comando” de los procesos que desarrolla, ya que el ADN que contiene regula la formación, el crecimiento, el funcionamiento y la reproducción celular. El ADN es la macromolécula portadora de la información genética. Esta información se halla en los segmentos de ADN denominados genes. Cada gen es una pequeña porción de secuencias de bases del ADN que codifica a una proteína específica. En la célula, las hebras de ADN están enmarañadas y se tiñen fácilmente con colorantes, lo que facilita su observación con el microscopio electrónico.

En este estado, el ADN recibe el nombre de cromatina (del griego cromo: color), y lleva a cabo las siguientes funciones:

■ controla su autoduplicación o replicación, por la cual se obtienen copias idénticas del ADN “madre”, que luego se repartirán equitativamente en las células hijas;

■ controla la síntesis de los ARN que intervienen en la síntesis de proteínas.
Una vez que se ha producido la replicación, los filamentos de cromatina se condensan en estructuras compactas llamadas cromosomas (del griego cromo: color; soma: cuerpo).

Cada cromosoma está compuesto por una hebra espiralizada de ADN unido a proteínas específicas -las historias- y formado por dos brazos idénticos llamados cromátidas hermanas. Las cromátidas hermanas se unen por medio del centrómero.

Como decíamos antes el ADN, la macromolécula que contiene, en forma químicamente codificada, toda la información necesaria para construir, controlar y mantener un organismo vivo. Aunque el ADN fue identificado como sustancia transmisora de la herencia en 1944 por Oswald Avery (1877-1955), Colin Macleod (1909-1972) y Maclyn McCarthy (1911), su estructura geométrica fue descubierta en 1953 por James Watson (1928) y Francis Crick (1916-2004).

Oswald Avery Colin Macleod Maclyn McCarthy
Oswald Avery (1877-1955) Colin Macleod (1909-1972) Maclyn McCarthy (1911)

El ADN está constituido por dos cadenas, (figura arriba) cada una de las cuales formada por cuatro compuestos químicos, combinaciones de carbono, nitrógeno, oxígeno, hidrógeno y fósforo, denominados adenina (A), guanina (G), citosina (C) y timina (T). Los cuatro tienen un comportamiento de álcalis o «bases» (lo contrario de ácidos). La estructura de la cadena es muy sencilla: lo que se puede considerar como su «esqueleto» está formado por una alternancia regular de ácido fosfórico (P) y un azúcar, la desoxirribosa (D); esto es:

P-D-P-D-P-D-P-D-…

Sobre este esqueleto, se superponen las cuatro bases mencionadas antes, pero de forma que a cada azúcar D va unida una base, A, C, G o T, formando una secuencia determinada (al conjunto de P, D y una base se le llama «nucleótido»); el ácido fosfórico es algo así como un eslabón de esta singular cadena, que tiene forma espiral de hélice, la famosa «doble hélice».

El ADN surge cuando se unen dos cadenas de este tipo, mediante el procedimiento de establecer uniones entre parejas de bases, pero sólo de manera que la T de una cadena se asocie a la A de la otra y la G a la C. Cualquier otro emparejamiento está prohibido.

Con la excepción de las bacterias, el ADN aparece en forma de filamentos muy largos en los cromosomas, las unidades que se encuentran en los núcleos de todas las células de un individuo y gracias a las cuales los caracteres biológicos se transmiten de padres a hijos (el número de cromosomas varía entre uno, en las bacterias, y docenas o incluso cientos en los organismos superiores; en los seres humanos hay 23 pares).

Si pudiésemos extender el ADN de una célula humana, formaríamos un hilo de unos tres metros de longitud. Y si se tiene en cuenta el número de células que poseemos, todo el ADN de una persona formaría un hilo de una longitud más de veinte veces la distancia que separa al Sol de la Tierra. El «genoma» (conjunto de instrucciones —o de genes— que permiten construir un organismo) humano se encuentra en esos gigantescos hilos, y consta de unos tres mil millones de pares de bases.

CONCEPTO DE GEN: Neologismo introducido por Wihelm Juhannsen (1857-1927) en 1909 para designar las unidades de material heredado (o de transmisión genética). Proviene del griego génesis (generación). Situado, en los organismos superiores, en los cromosomas, un gen es una secuencia de pares de bases a los largo de un trozo de ADN , que tiene una función especifica conocida. Los genes son ,en consecuencia, tiras de nucleótidos separadas entre si por otras tiras de

ADN, denominadas también «secuencias intervinientes» o «intrones». José Sanmartín ha señalado, pertinentemente, que estas secuencias son como los espacios publicitarios de las películas de televisión, pero que mientras que sabemos cuál es la función de la publicidad, ignoramos todavía para qué valen realmente los intrones.

En los seres humanos existen unos 30.000 genes diferentes, cada uno agrupando entre 2.000 y 2.000.000 de pares de nucleótidos. Pequeños cambios (mutaciones) en la estructura química de los genes pueden tener consecuencias muy importantes. Como la anemia falciforme, una enfermedad hereditaria bastante frecuente.

Los hematíes de las personas con este tipo de genes sufren grandes alteraciones de formas cuando se exponen a bajas concentraciones de oxígeno.

Como consecuencia, a los hematíes les es entonces muy difícil pasar a través de los capilares sanguíneos, con el resultado de grandes dolores e incluso la muerte (por razones evidentes, en las academias de las Fuerzas Aéreas de algunas naciones se efectúan exámenes genéticos para detectar esta anemia).

Se conocen más de cuatro mil defectos en los que un solo gen provoca trastornos en los seres humanos. Y la mayoría son letales, abundando, además, los casos en los que las víctimas son preferentemente niños.

Estos ejemplos y nociones, tan sencillos y elementales, sirven perfectamente para apreciar con claridad parte de la importancia de la genética y biología moleculares. Con ellas es posible plantear la tarea de identificar el defecto genético responsable de enfermedades (se estima que un recién nacido de cada trescientos es portador de una anomalía genética). En 1986, por ejemplo, un equipo de investigadores norteamericanos identificó el defecto genético responsable de un tipo de distrofia muscular.

En 1989, un grupo de biólogos anunció el descubrimiento de la situación del gen que, cuando sale defectuoso, produce la fibrosis quística, una enfermedad que afecta a los pulmones, páncreas y otros órganos.

A partir de entonces, los avances en esta dirección son constantes. En 1993, por ejemplo, se localizó el gen de la Corea de Huntington, un trastorno que produce una degeneración progresiva del cerebro, que viene acompañada d la aparición de fuertes movimientos incontrolados y que  conduce, inevitablemente por el momento, a la muerte (habitualmente ataca a las personas de alrededor de 35 años.

De esta manera, será posible (es ya posible en bastante casos) al menos identificar a los padres que pueden transmitir el defecto, o hacer pruebas a la mórula —el primer esbozo del embrión para comprobar si el ser humano que surgirá de él será portador o no de la anomalía. Y no sólo eso: en algunos casos será factible también remediar lo que antes parecía irremediable, curar las enfermedades. El primer paso en esta dirección se dio en septiembre de 1991, Cuando se practicó a una niña de cuatro años el primer trasplante genético. La experiencia tuvo éxito.

Básicamente, el objetivo principal de las terapias génicas es aportar un gen normal para paliar la insuficiencia de un gen. De hecho, existen dos tipos de terapias génicas: la terapia génica somática, que no se transmite a la descendencia, y la terapia de células germinales que sí se transmite. Esta última se aplica con cierta extensión en la actualidad a razones y animales de granja. Su utilización con la especie humana no es técnicamente imposible, pero podría conducir a prácticas eugénicas Y también está la donación de la que me ocupo en otro lugar de este diccionario. (ver Eugenesia)

Los avances en el conocimiento de la estructura de los genes afectan al universo de los comportamientos y valores sociales, éticos, de manera que no es deseable limitar el tratamiento de las cuestiones que se refieren a la genética, biología molecular o ingeniería genética a aspectos puramente científicos o tecnológicos. Veamos a continuación algunos posibles remas que se pueden —y deben— analizar en tal sentido.

El que podamos averiguar la situación, en las secuencias de ADN que constituyen los genes, de los defectos que producen muchas enfermedades, constituye una información que se puede utilizar en numerosas direcciones. Tomemos Como ejemplo a la corea de Huntington. La detección de esta enfermedad en un óvulo recién fecundado puede ser utilizada para que la mujer embarazada decida abortar, evitándose de esta manera un problema dramático. Pero pensemos en otro ejemplo que conduce a situaciones muy diferentes.

Una familia estadounidense tenía un hijo que padecía de fibrosis quística. El joven recibía atención médica a través de un seguro privado. Cuando su madre quedó embarazada de nuevo, se le exigió someter al feto a una prueba genética para averiguar si su hijo padecería el mismo trastorno. El resultado fue positivo, pero la mujer decidió continuar con su embarazo. El seguro se planteó entonces la posibilidad de anular o limitar sus prestaciones a la familia.

Tenemos que darnos cuenta de que de lo que se está hablando aquí es de una situación nueva y compleja. Es evidente, especialmente dada la naturaleza de la cobertura médica en Estados Unidos, que la compañía de seguros —esta u otra cualquiera, en distintas o parecidas circunstancias— podía intervenir condicionando muy seriamente las posibilidades de esta familia, que, de esta manera, vería limitada gravemente su libertad. ¿Qué hacer en este tan notorio —y en muchos aspectos paradigmático— caso de conflicto de intereses? He aquí uno de los problemas que el desarrollo del conocimiento científico plantea al presente y al futuro.

El mercado laboral puede verse también condicionado por la información genética. Hay que señalar en este sentido que uno de los hallazgos de la biología molecular es que existen secuencias de bases sensibles a la acción de factores ambientales determinados. Como los que se pueden encontrar en algunos puestos de trabajo.

Aquí surgen, de nuevo, diferentes posibilidades. El poseer semejante información es, evidentemente, bueno para la persona, en tanto que elimina riesgos para su salud, pero también puede conducir a que las empresas en cuestión encaminen sus esfuerzos no a modificar las circunstancias medioambientales de sus centros de trabajo, ni a introducir cambios estructurales, sino, simplemente, a buscar empleados genéticamente resistentes, lo que tal vez conduciría a nuevas clases -o castas- sociales”, definidas por características biológicas, una idea esta ante la que muchos retrocederíamos.

Mutaciones
Las mutaciones son alteraciones permanentes presentadas en el ADN de los genes. Al alterar el código genético producen cambios en el genotipo de los organismos que las padecen, y por ser permanentes, se transmiten a la descendencia. Las mutaciones en la gran mayoría de los casos son letales para los seres vivos; en muy contadas excepciones son benéficas.

Si una persona, al sufrir una quemadura, adquiere una cicatriz en su piel, está no se transmitirá a su descendencia. Al contrario, si ocurre una mutación en las células cuyas células hijas son el óvulo o el espermatozoide, ésta pasará a las generaciones siguientes.

Factores mutagénicos: Son los elementos que pueden inducir mutaciones en los seres vivos, es decir, los causantes de las alteraciones de la información genética. Los factores mutagénicos pueden ser de origen biótico o abiótico.

Factores mutagénicos bióticos
Entre los factores bióticos merecen tenerse en cuenta algunos virus. Un virus está formado por una molécula de ácido nucleico y una cápsula de proteínas. Como vimos en el taller anterior el virus se reproduce en el interior de la célula hospedera y después de muchas replicaciones se separa del material genético de la célula infectada y sale de ella.

Muchas veces, el material genético viral no se separa de la cromatina celular. Permanece indefinidamente ligado a ella, lo cual modifica la estructura genética y por consiguiente origina i mutaciones que conducen a enfermedades graves y a veces a la muerte. El virus del herpes, por ejemplo, se ha asociado con el origen de algunas formas de cáncer.

Factores mutagénicos abióticos: Entre los factores mutagénicos abióticos podemos considerar algunas sustancias químicas y algunas radiaciones físicas. Hay sustancias químicas que pueden modificar la estructura de las bases nitrogenadas del ADN o parecerse a ellas y ocupar su lugar, lo que conduce a errores en el código genético, induciendo mutaciones en personas expuestas a ellas que luego pasan a la descendencia. También pueden actuar a nivel del embrión de la mujer gestante, conduciendo a malformaciones genéticas severas y en ocasiones a la muerte embrionaria o fetal.

Entre las radiaciones físicas mutagénicas podemos enunciar la radioactividad, la luz ultravioleta, los rayos X. Éstos actúan sobre el ADN, produciendo modificaciones en algunas bases nitrogenadas y de esta manera alteran la información genética.

Las mutaciones, materia prima de la evolución Las mutaciones son esenciales en la evolución de las especies, ya que todas las variaciones genéticas se originan en cambios azarosos en la secuencia del ADN. El ambiente siempre está probando las secuencias existentes y nuevas de ADN, generando la competencia por la supervivencia. Ocasionalmente una mutación produce beneficios en las interacciones de los individuos con su ambiente. La mutación podrá diseminarse en las nuevas poblaciones y predominar. Los individuos que las posean competirán de mejor manera con los individuos que albergan la secuencia original de ADN no mutada.

ALGO MAS SOBRE EL TEMA….

Todavía sabemos relativamente poco sobre cómo un óvulo fecundado se convierte en adulto, con cientos de tipos de tejidos distintos, cada uno con exactamente el mismo mensaje genético, pero con cometidos tan distintos como crear el cerebro y los huesos. Aunque ya hace mucho tiempo que es posible cultivar plantas adultas, y hasta ranas, a partir de células solas, la idea de que pudiera hacerse lo mismo con mamíferos parecía una fantasía, hasta el nacimiento de la oveja Dolly en 1997. Entonces, con el sencillo truco de insertar el núcleo de una célula adulta en un óvulo vaciado y permitirle desarrollarse en el interior de su madre adoptiva, se creó una oveja sin necesidad de sexo: se había clonado.

La clonación de ovejas o vacas podría ser importante para la cría de animales, y podría emplearse para elaborar múltiples copias de animales a los que se les han insertado genes humanos para producir proteínas como la hormona del crecimiento (que ya se utiliza para el «farmacultivo» de animales, la producción de fármacos valiosos en la leche). La publicidad que siguió a Dolly suscitó una condena inmediata de la idea de la clonación humana, a menudo sin reflexionar demasiado sobre por qué debía ser algo tan horrendo. Después de todo, estamos acostumbrados a ver gemelos idénticos (que son mutuamente clónicos), así que ¿por qué debe suscitar tanto horror una versión artificial? Además, al fin y al cabo la opinión pública moldea lo que la ciencia puede hacer y la perspectiva de clonar un ser humano parece muy lejana.

Y ¿por qué querría alguien hacerlo? Quienes aseguran que surgirá un ejército de Sadam Husseines idénticos rayan en la tontería y también parece improbable la replicación de un hijo querido que murió joven. Sin embargo, la técnica hace albergar grandes esperanzas a la medicina. Las células del embrión en sus primeras fases (o células madre, como se las conoce) tienen el potencial de dividirse en una variedad de tejidos y pueden cultivarse —clonarse— en el laboratorio, o incluso manipularse con genes ajenos. Tal vez podrían generar células cutáneas o sanguíneas nuevas o, con el tiempo, incluso órganos completos. Al implicar el uso de embriones en sus primeras fases que quizás se han conseguido mediante fecundación artificial en el laboratorio y que no se necesitan para implantarlos en la madre, todo esto se ha mezclado con el debate sobre el aborto. En Estados Unidos, el grupo de presión «Pro-Vida» ha logrado que tales investigaciones no reciban financiación de fuentes públicas.

La genética siempre se ha mezclado con la política. Se ha utilizado tanto para culpar el comportamiento humano como para excusarlo. La reivindicación de un «gen gay» suscitó dos respuestas distintas en la comunidad homosexual. Algunos temían que el gen se utilizara para estigmatizarlos, pero muchos acogieron bien la idea de que su comportamiento pudiera estar codificado en el ADN, pues eso implicaba que no podía acusárseles de corromper a quienes no estaban ya en una situación «de riesgo». Estas opiniones contrarias son aplicables por igual a los supuestos genes que predisponen a delinquir; ¿acaso constituyen la prueba de que el criminal no puede reformarse y es preciso encerrarlo para siempre o deben utilizarse como descargo para sostener que no estaba actuando por voluntad propia?

La ciencia carece de respuesta para semejantes preguntas y, finalmente, el resultado más sorprendente de la nueva genética puede ser lo poco que nos dice sobre nosotros mismos.

EL MAPA GENOMA Y LAS ENFERMEDADES GENÉTICAS: Existen más de 4.000 enfermedades “de un solo gen”, que siguen fielmente las leyes de Mendel y que pueden ser dominantes como la calvicie precoz, recesivas, como el albinismo, o ligadas al sexo, como la hemofilia o el daltonismo. Las enfermedades poligénicas son mucho mas.

Enfermedad de Alzheimer o enfermedad degenerativa del cerebro. Los enfermos pierden la memoria y el juicio. Afecta personas de más de 65 años y a casi el 50% de las de más de 80 años. Se localizaron varios marcadores de origen genético en los  cromosomas 1, 14, 19 y 21, que provocan diferentes tipos de Alzheimer, desde el tipo I hasta el IV. Es interesante que una trisomía en el cromosoma 21 (la presencia de un cromosoma 21 extra en cada célula) sea la causante del síndrome de Down, la forma más común de retraso mental. Las personas con síndrome de Down casi siempre suelen desarrollar la enfermedad de Alzheimer.

Cáncer de colon. Este tipo de cáncer le sigue en importancia al cáncer de pulmón. Más de 50.000 personas mueren cada año a causa de esta enfermedad. Los síntomas son hemorragias rectales, presencia de sangre en las heces. Un alelo mutante en el cromosoma 2 que aparece con frecuencia en determinados cánceres de colon, llamado MSH2, produce una enzima similar a las enzimas bacterianas reparadoras del ADN, por lo que su carencia o mal funcionamiento podrían explicar el desarrollo incontrolado de las células cancerigenas.

Cáncer de pulmón. Es la forma más común de cáncer en los países desarrollados. Se presenta con una tos persistente, dolor en el pecho, jadeos, ataques repetidos de neumonía y bronquitis, aparición de sangre al toser y ronquera. Como todos los cánceres, el de pulmón puede causarfatiga, pérdida de apetito y de peso. Un gen en el cromosoma 3, llamado SCLC1, predispone a padecer cáncer de pulmón. Pero éste depende del ambiente en la inmensa mayoría de los casos.

Corea de Huntington. Es una enfermedad degenerativa del cerebro, que lleva a la demencia. Se manifiesta entre los 30 y los 50 años. Los síntomas son cambios en la personalidad y en el estado de ánimo, depresión y pérdida gradual del control de los movimientos voluntarios, con espasmos primero y grandes movimientos al azar, como en un raro baile. Es provocada por un gen dominante localizado en el cromosoma 4; mediante un análisis de sangre se puede detectar la presencia del alelo.

Displasia diastrófica. Es una anormalidad del crecimiento caracterizada por huesos curvados, extremidades cortas y deformaciones en las articulaciones, los pies y las manos. Se ha descubierto un gen, en el cromosoma 5, asociado con esta enfermedad. Ha recibido el nombre de DTD.

Diabetes juvenil. La diabetes es una enfermedad metabólica crónica que las células pancreáticas sinteticen insulina, la hormona que controla el nivel de glucosa en la sangre. La diabetes, o del Tipo I es la más severa. Con esta enfermedad se asoció el gen llamado IDDM1, localizado en el cromosoma 6.

Obesidad. Es el exceso de grasa en el cuerpo, que frecuentemente trae aparejada una serie de problemas médicos. Una de cada cuatro personas en los países desarrollados está en riesgo de padecer esta afección y tiene más probabilidad de contraer enfermedades cardiovasculares. Los científicos pudieron determinar una proteína mutada en los ratones obesos. Se trata del polipéptido denominado leptina. Esta misma proteína se encuentra en el hombre. Es codificada por un gen localizado en el cromosoma 7. Queda por demostrar su relación con algunos casos de obesidad patológica.

Fenilcetonuria. Rara enfermedad metabólica causada por una deficiencia en la enzima fenilalanina-hidroxilasa, que en el hígado en las personas sanas. Es una enfermedad monogénica localizada en el cromosoma 12.

Enfermedad poliquística del riñón. Se caracteriza por provocar muchos quistes de gran tamaño en uno o en ambos riñones. Los insuficiencia renal o por las consecuencias de esta, como la hipertensión. En el cromo

Cáncer de páncreas. Es provocado por un gen, llamado DPC4, localizado en el cromosoma 18, cuyo producto proteico recibió el nombre de “supresor del carcinoma pancreático”. Las mutaciones en este gen hacen que este tipo de forma especialmente agresiva e invada otros tejidos circundantes.

Distrofia miotónica. Enfermedad hereditaria de los músculos. Está asociada con una secuencia repetida de nucleótidos en el cromosoma 19. Una de las características poco usuales de esta enfermedad es que su severidad se  va acrecentando de una generación a otra, debido a que aparece cada vez un mayor número de repeticiones de la secuencia que produce la enfermedad.

Inmunodeficiencia severa combinada. Enfermedad monogénica bien caracterizada. Se manifiesta por la incapacidad del sistema  inmunitario de sintetizar anticuerpos que permitan neutralizar cualquier infección. El gen que codifica esta inmudeficiencia se localiza en el cromosoma 20.

Esclerosis lateral amiotrófica. Es la enfermedad que padece Stephen W. Hawking, el físico teórico inglés Es un trastorno neurológico degenerativo que provoca la progresiva inutilización de las neuronas motare del cerebro. En 1991, un equipo de científicos localizó en el cromosoma 21 un gen ligado a este tipo de e: S0D1 y presentaba una mutación recesiva.

Distrofia muscular de Duchenne. Crecimiento anormal de los músculos. E1 paciente muere hacia los veinte años, por paro cardíaco o pulmonar. Está ligada al sexo, por lo que su frecuencia de aparición es mucho mayor en varones, y su gigantesco gen se loe en el cromosoma X.

Malformación de los testículos. El cromosoma Y está prácticamente vacío, en comparación con su compañero, el X. Uno de los pocos  genes que pudieron localizarse en el cromosoma Y es el llamado factor determinante de los testículos, o TDF. Se trata de una “factor de transcripción”. El TDF es capaz de unirse a determinados genes (no necesariamente en el cromosoma Y), cuyos productos proteicos son necesarios para la formación de los testículos durante el crecimiento fetal, lo que detrmina el futuro del individuo. (Fuente: BIOLOGÍA Aciva Polimodal Puerto de Palos)

Fuente Consultada:
Diccionario de la Ciencia de José Manuel Sánchez Ron
Gran Enciclopedia Universal Espasa Calpe Tomo 4
El Jardín de Newton de José Manuel Sánchez Ron
Ciencias Naturales y Tecnología 3 Santillana

Evolucion de la Ingenieria Genetica Historia del ADN Importancia

Evolución de la Ingeniería Genética
Historia del ADN e Importancia

La Célula Célula Madre Los Genes y Genoma Estructura ADN La Oveja Dolly La Clonación
Terapia Genética La Biotecnología

La teoría de la genética
A mediados del siglo XIX, la teoría de la evolución por selección natural, expuesta por Charles Darwin en su obra El origen de las especies (1859), suscitó encendidas controversias. A principios del siglo XX, los ánimos se habían serenado y los biólogos comenzaban a interesarse más por los mecanismos de la evolución que por la validez de la teoría de Darwin.

El carácter hereditario de ciertos rasgos es un hecho reconocido desde los albores de la civilización, ya que los parecidos familiares constituyen una observación al alcance de todos. Los criadores de ganado han aprovechado desde tiempos remotos este fenómeno para mejorar la calidad de sus animales. Pero hasta fines del siglo XIX, los métodos utilizados eran totalmente empíricos. Por ejemplo, Robert Bakewell, famoso criador inglés del siglo XVIII, obtenía excelentes resultados por el procedimiento de cruzar a sus animales con otros no emparentados para conseguir los rasgos deseados y cruzar posteriormente entre sí a los animales así obtenidos con el fin de estabilizar los caracteres conseguidos.

La genética no surgió como ciencia hasta 1900, pero sus fundamentos habían sido sólidamente establecidos 40 años antes por Gregor Mendel, monje moravo del monasterio de Brno. Entre 1851 y 1853, su orden lo envió a Viena a estudiar ciencias y, al regresar al monasterio (del que llegó a ser abad en 1868), inició una serie de experimentos con la planta del guisante (Pisum). Estudió siete características específicas de esta planta, entre ellas, la forma de la semilla, el color de las flores y la longitud del tallo.

Llevando detallados registros sobre más de 20.000 ejemplares, descubrió que estas características eran hereditarias en un coeficiente aproximado de 1:3. El cruzamiento de plantas de tallo largo con ejemplares de tallo corto daba como resultado plantas de uno u otro tipo, nunca de altura intermedia. Mendel supuso entonces que estas características eran transmitidas por factores hereditarios específicos que estaban localizados en las células germinales.

Sus ideas eran básicamente correctas pero, por desgracia, pasaron inadvertidas ya que sólo se publicaron en el periódico de la Sociedad de Historia Natural de Brno. Decepcionado, envió una copia de su trabajo al destacado botánico suizo Karl von Nágeli (1817-1891), que no fue capaz de reconocer su importancia. El hecho fue tristemente irónico, ya que el propio Nágeli, en 1842, había descrito minuciosamente el proceso de formación del polen en la familia de las azucenas, las liliáceas, y en sus apuntes había indicado la separación en el núcleo de lo que denominó «citoblastos transitorios», que eran en realidad los cromosomas, portadores de los «factores hereditarios» (genes) de Mendel.

Se perdió así una gran oportunidad. En 1900, dieciséis años después de la muerte de Mendel, el botánico holandés Hugo de Vries publicó los resultados de una larga serie de experimentos de reproducción vegetal, en los que también obtuvo un coeficiente de 1:3. Al publicar sus trabajos, citó las investigaciones de Mendel, realizadas treinta y cuatro años antes.

En pocas semanas, otros dos botánicos, C.E. Correns en Alemania y E. Tschermak von Seysenegg en el Imperio Austrohúngaro, publicaron resultados similares. De esta forma, el nuevo siglo comenzó con la confirmación de los coeficientes de Mendel, que sentaron una sólida base para la teoría genética.

En Estados Unidos, el zoólogo T.H. Morgan comenzó a estudiar la evolución y la herencia en 1903. Al principio, los resultados de Mendel le inspiraban escepticismo, pero sus investigaciones con la mosca de la fruta, Drosophila (un sujeto experimental particularmente conveniente, ya que se reproduce con rapidez y presenta cromosomas gigantes en las células de las glándulas salivales), muy pronto lo convencieron.

Llegó a la conclusión de que los genes, dispuestos en los cromosomas como las cuentas en un collar, eran las unidades de la herencia, y en 1911 publicó con sus colaboradores el primer «mapa cromosómico», en el que aparecía la localización de cinco genes ligados al sexo. Diez años más tarde, más de 2.000 genes habían sido localizados.

En 1900 se aceptaron las leyes de la herencia que Johan Gregor Mendel había hecho públicas en 1865. En 1953,James Watson y Francis Crick descubrieron la estructura del ácido desoxirribonucleico (ADN), la llamada “molécula de la herencia”, que contiene las instrucciones necesarias para crear un ser vivo. La publicación de su artículo en la revista Nature, en 1953, fue el punto de partida de una revolución científica todavía en curso. En 1973 nació la ingeniería genética, al conseguir transplantar material genético de un organismo a otro.

La lista de organismos creados a medida -y patentados- se amplió año tras año: una bacteria que devoraba el petróleo (1980), ratones que pesaban el doble de lo normal (1982) o un tomate con el proceso de maduración ralentizado (1987). Con la oveja Dolly, se popularizaron los clones, organismos genéticamente iguales a otro.

En 2003 se consiguió el desciframiento completo del genoma humano, la cadena de ADN que contiene nuestras instrucciones genéticas. Se concluyó que de los 3.120 millones de datos que lo componen, el 99,8% de ellos es idéntico para todas las personas, dato que invalidó definitivamente el criterio discriminador de raza.

Revelaba también que tenemos en torno a los 30.000 genes, poco más del doble que una mosca, 300 genes más que los ratones y muchos menos que el arroz. Lo que nos hace distintos, pues, no es la cantidad sino la interacción entre los genes. Con el desciframiento del genoma, se inauguró una nueva era de la medicina, con aplicaciones todavía impredecibles en la detección, prevención y tratamiento de enfermedades.

Si la responsabilidad social del científico ya era un tema debatido cuando estudiaba materia inorgánica, más lo es en la actualidad, cuando en el laboratorio se crean seres vivos y se experimenta la clonación humana. Otro debate abierto es la relación entre ciencia y empresa. En el pasado, la ciencia se ha beneficiado del intercambio de información, de la búsqueda desinteresada del conocimiento como un fin en sí mismo, del trabajo competitivo pero altruista de universidades y centros públicos.

Hoy, las leyes del mercado rigen el mundo científico, especialmente en los EE.UU., líderes absolutos en investigación. Las empresas invierten lo que no invierten los estados pero sus legítimos intereses económicos condicionan el avance científico, incluso en el ámbito público, e impiden la libre circulación del conocimiento.

INGENIERÍA GENÉTICA

Disciplina que se ocupa de «unir genes»; esto es, de sustituir un segmento de ADN de una célula por uno de otra (al organismo que surge de este proceso se lo denomina transgénico). Hasta comienzos de la década de 1970 no se conocían técnicas adecuadas para manipular el ADN en tubos de ensayo. Debido a ser las moléculas de ADN de gran tamaño, cuando se las intentaba fragmentar los cortes se producían al azar, con lo cual se descomponía la información genética contenida en ellas de forma tal que era prácticamente imposible de recomponer.

Sin embargo, a comienzos de esa década se encontraron herramientas moleculares que podían resolver muchos de esos problemas: enzimas capaces de cortar sólo por sitios determinados las moléculas de ADN; ligasas capaces de reunir con precisión molecular los fragmentos y sellar las uniones para dejarlas perfectamente reparadas, y un gran número de otras enzimas capaces de cortar, modificar, multiplicar y recomponer el ADN (se habla de ADN recombinante), lista es la tecnología conocida como ingeniería genética. Por medio de ella se pueden seleccionar no ya individuos, sino algunos de sus genes o porciones de ellos. Se puede, en definitiva, crear algo absolutamente nuevo: nuevas moléculas vivientes, nuevos genes y por tanto nueva vida.

Y existen otros procedimientos, más recientes, que introducen importantes novedades. Desde finales de la década de 1980 y comienzos de la de 1990 existe la posibilidad de generar animales a los cuales se les puede eliminar un determinado gen. No se trata, pues, de animales transgénicos, sino de estirpes (de ratones, por ejemplo) carentes de un determinado gen, lo que permite precisar cuál es la verdadera función de ese gen, sin más que estudiar las deficiencias que presenta el animal.