La Oveja Dolly

Historia de la higiene personal y de las ciudades en la historia

Historia de la higiene personal y de las ciudades

El escritor Sandor Marai, nacido en 1900 en una familia rica del Imperio Austrohúngaro, cuenta en su libro de memorias Confesiones de un burgués que durante su infancia existía la creencia de que “lavarse o bañarse mucho resultaba dañino, puesto que los niños se volvían blandos”.

Por entonces, la bañera era un objeto más o menos decorativo que se usaba “para guardar trastos y que recobraba su función original un día al año, el de San Silvestre. Los miembros de la burguesía de fines del siglo XIX sólo se bañaban cuando estaban enfermos o iban a contraer matrimonio”.

Esta mentalidad, que hoy resulta impensable, era habitual hasta hace poco. Es más, si viviéramos en el siglo XVIII, nos bañaríamos una sola vez en la vida, nos empolvaríamos los cabellos en lugar de lavarlos con agua y champú, y tendríamos que dar saltos para no pisar los excrementos esparcidos por las calles. 

la higiene humana

  • Del esplendor del Imperio al dominio de los “marranos”

Curiosamente, en la Antigüedad los seres humanos no eran tan “sucios”. Conscientes de la necesidad de cuidar el cuerpo, los romanos pasaban mucho tiempo en las termas colectivas bajo los auspicios de la diosa Higiea, protectora de la salud, de cuyo nombre deriva la palabra higiene.

Esta costumbre se extendió a Oriente, donde los baños turcos se convirtieron en centros de la vida social, y pervivió durante la Edad Media. En las ciudades medievales, los hombres se bañaban con asiduidad y hacían sus necesidades en las letrinas públicas, vestigios de la época romana, o en el orinal, otro invento romano de uso privado; y las mujeres se bañaban y perfumaban, se arreglaban el cabello y frecuentaban las lavanderías. Lo que no estaba tan limpio era la calle, dado que los residuos y las aguas servidas se tiraban por la ventana a la voz de “agua va!”, lo cual obligaba a caminar mirando hacia arriba.

  • Vacas, caballos, bueyes dejaban su “firma” en la calle

Pero para lugares inmundos, pocos como las ciudades europeas de la Edad Moderna antes de que llegara la revolución hidráulica del siglo XIX. Carentes de alcantarillado y canalizaciones, las calles y plazas eran auténticos vertederos por los que con frecuencia corrían riachuelos de aguas servidas. En aumentar la suciedad se  encargaban también los numerosos animales existentes: ovejas, cabras, cerdos y, sobre todo, caballos y bueyes que tiraban de los carros. Como si eso no fuera suficiente, los carniceros y matarifes sacrificaban a los animales en plena vía pública, mientras los barrios de los curtidores y tintoreros eran foco de infecciones y malos olores.

La Roma antigua, o Córdoba y Sevilla en tiempos de los romanos y de los árabes estaban más limpias que Paris o Londres en el siglo XVII, en cuyas casas no había desagües ni baños. ¿Qué hacían entonces las personas? Habitualmente, frente a una necesidad imperiosa el individuo se apartaba discretamente a una esquina. El escritor alemán Goethe contaba que una vez que estuvo alojado en un hostal en Garda, Italia, al preguntar dónde podía hacer sus necesidades, le indicaron tranquilamente que en el patio. La gente utilizaba los callejones traseros de las casas o cualquier cauce cercano. Nombres de los como el del francés Merderon revelan su antiguo uso. Los pocos baños que había vertían sus desechos en fosas o pozos negros, con frecuencia situados junto a los de agua potable, lo que aumentaba el riesgo de enfermedades.

  • Los excrementos humanos se vendían como abono

Todo se reciclaba. Había gente dedicada a recoger los excrementos de los pozos negros para venderlos como estiércol. Los tintoreros guardaban en grandes tinajas la orina, que después usaban para lavar pieles y blanquear telas. Los huesos se trituraban para hacer abono. Lo que no se reciclaba quedaba en la calle, porque los servicios públicos de higiene no existían o eran insuficientes. En las ciudades, las tareas de limpieza se limitaban a las vías principales, como las que recorrían los peregrinos y las carrozas de grandes personajes que iban a ver al Papa en la Roma del siglo XVII, habitualmente muy sucia. Las autoridades contrataban a criadores de cerdos para que sus animales, como buenos omnívoros, hicieran desaparecer los restos de los mercados y plazas públicas, o bien se encomendaban a la lluvia, que de tanto en tanto se encargaba arrastrar los desperdicios.

Tampoco las ciudades españolas destacaban por su limpieza. Cuenta Beatriz Esquivias Blasco su libro ¡Agua va! La higiene urbana en Madrid (1561-1761), que “era costumbre de los vecinos arrojara la calle por puertas y ventanas las aguas inmundas y fecales, así como los desperdicios y basuras”. El continuo aumento de población en la villa después del esblecimiento de la corte de Fernando V a inicios del siglo XVIII gravó los problemas sanitarios, que la suciedad se acumulaba, pidiendo el tránsito de los caos que recogían la basura con dificultad por las calles principales

  • En verano, los residuos se secaban y mezclaban con la arena del pavimento; en invierno, las lluvias levantaban los empedrados, diluían los desperdicios convirtiendo las calles en lodazales y arrastraban los residuos blandos los sumideros que desembocaban en el Manzanares, destino final de todos los desechos humanos y animales. Y si las ciudades estaban sucias, las personas no estaban mucho mejor. La higiene corporal también retrocedió a partir del Renacimiento debido a una percepción más puritana del cuerpo, que se consideraba tabú, y a la aparición de enfermedades como la sífilis o la peste, que se propagaban sin que ningún científico pudiera explicar la causa.

Los médicos del siglo XVI creían que el agua, sobre todo caliente, debilitaba los órganos y dejaba el cuerpo expuesto a los aires malsanos, y que si penetraba a través de los poros podía transmitir todo tipo de males. Incluso empezó a difundirse la idea de que una capa de suciedad protegía contra las enfermedades y que, por lo tanto, el aseo personal debía realizarse “en seco”, sólo con una toalla limpia para frotar las partes visibles del organismo. Un texto difundido en Basilea en el siglo XVII recomendaba que “los niños se limpiaran el rostro y los ojos con un trapo blanco, lo que quita la mugre y deja a la tez y al color toda su naturalidad. Lavarse con agua es perjudicial a la vista, provoca males de dientes y catarros, empalidece el rostro y lo hace más sensible al frío en invierno y a la resecación en verano

  • Un artefacto de alto riesgo llamado bañera

Según el francés Georges Vigarello, autor de Lo limpio y lo sucio, un interesante estudio sobre la higiene del cuerno en Europa, el rechazo al agua llegaba a los más altos estratos sociales. En tiempos de Luis XIV, las damas más entusiastas del aseo se bañaban como mucho dos veces al año, y el propio rey sólo lo hacía por prescripción médica y con las debidas precauciones, como demuestra este relato de uno de sus médicos privados: “Hice preparar el baño, el rey entró en él a las 10 y durante el resto de la jornada se sintió pesado, con un dolor sordo de cabeza, lo que nunca le había ocurrido… No quise insistir en el baño, habiendo observado suficientes circunstancias desfavorables para hacer que el rey lo abandonase”. Con el cuerno prisionero de sus miserias, la higiene se trasladó a la ropa, cuanto más blanca mejor. Los ricos se “lavaban” cambiándose con frecuencia de camisa, que supuestamente absorbía la suciedad corporal.

El dramaturgo francés del siglo XVII Paul Scarron describía en su Roman comique una escena de aseo personal en la cual el protagonista sólo usa el agua para enjuagarse la boca. Eso sí, su criado le trae “la más bella ropa blanca del mundo, perfectamente lavada y perfumada”. Claro que la procesión iba por dentro, porque incluso quienes se cambiaban mucho de camisa sólo se mudaban de ropa interior —si es que la llevaban— una vez al mes.

• Aires ilustrados para terminar con los malos olores

Tanta suciedad no podía durar mucho tiempo más y cuando los desagradables olores amenazaban con arruinar la civilización occidental, llegaron los avances científicos y las ideas ilustradas del siglo XVIII para ventilar la vida de los europeos. Poco a poco volvieron a instalarse letrinas colectivas en las casas y se prohibió desechar los excrementos por la ventana, al tiempo que se aconsejaba a los habitantes de las ciudades que aflojasen la basura en los espacios asignados para eso. En 1774, el sueco Karl Wilhehm Scheele descubrió el cloro, sustancia que combinada con agua blanqueaba los objetos y mezclada con una solución de sodio era un eficaz desinfectante. Así nació la lavandina, en aquel momento un gran paso para la humanidad.

• Tuberías y retretes: la revolución higiénica

En el siglo XIX, el desarrollo del urbanismo permitió la creación de mecanismos para eliminar las aguas residuales en todas las nuevas construcciones. Al tiempo que las tuberías y los retretes ingleses (WC) se extendían por toda Europa, se organizaban las primeras exposiciones y conferencias sobre higiene. A medida que se descubrían nuevas bacterias y su papel clave en las infecciones —peste, cólera, tifus, fiebre amarilla—, se asumía que era posible protegerse de ellas con medidas tan simples como lavarse las manos y practicar el aseo diario con agua y jabón. En 1847, el médico húngaro Ignacio Semmelweis determinó el origen infeccioso de la fiebre puerperal después del parto y comprobó que las medidas de higiene reducían la mortalidad. En 1869, el escocés Joseph Lister, basándose en los trabajos de Pasteur, usó por primera vez la antisepsia en cirugía. Con tantas pruebas en la mano ya ningún médico se atrevió a decir que bañarse era malo para la salud.

Revista Muy Interesante Nro.226- Que Sucio Éramos Luis Otero-
PARA SABER MÁS: Lo limpio y lo sucio. La higiene del cuerpo desde la Edad Media. Georgs Vtgatello. Ed. Altaya. 997.

Alimentos Transgenicos Manipulacion Genetica de los Alimentos

Alimentos Transgénicos
Manipulacion Genética de los Alimentos

Se denominan alimentos transgénicos a los obtenidos por manipulación genética que contienen un aditivo derivado de un organismo sometido a ingeniería genética; también se llaman así a aquellos que son resultado de la utilización de un producto auxiliar para el procesamiento, creado gracias a las técnicas de la ingeniería genética.

La biotecnología de alimentos aplica los instrumentos de la genética moderna a la mejora de localidad de los productos derivados de las plantas, animales y microorganismos. Desde tiempos remotos, él hombre ha seleccionado, sembrando y cosechado las semillas que permiten la obtención de los alimentos necesarios para el mantenimiento de su metabolismo .

De la misma manera, se ha fabricado pan, cerveza, vino o queso sin conocimiento alguno acerca de la ciencia genética involucrada en estos procesos. Desde muy antiguo, los genes de los alimentos han sufrido una modificación, destinada a aumentar sus cualidades benéficas. La biotecnología moderna permite a los productores de alimentos hacer exactamente lo mismo en la actualidad, pero con mayor nivel de comprensión y capacidad selectiva.

En un principio, el hombre se alimentaba de los animales que podía cazar o de las especies vegetales que crecían en su entorno más inmediato, Posteriormente se idearon técnicas para cultivar ciertas plantas. Cuando los primeros seres humanos decidieron establecerse y cultivar sus alimentos, en lugar de vagar para encontrarlos, nacieron la agricultura y la civilización.

Con el tiempo, los métodos se han vuelto más sofísticados, pero todos los intentos por mejorar los cultivos de alimentos han dependido, del enfoque popular de la naturaleza hacia la producción. Las aves y abejas aún permiten a los reproductores cruzar cultivos con sus parientes silvestres. La reproducción de híbridos desarrolla características deseables, tales como un sabor más agradable, un color más intenso y mayor resistencia a ciertas enfermedades vegetales.

La era de los denominados «alimentos transgénicos» para el consumo humano ddirecto se inauguró el 18 de mayo de 1994, cuando la Food and Drug Adminístration de los  Estados Unidos autorizó la comercialización del primer alimento con un gen «extraño»  el tomate Flavr-Savr; obtenido por la empresa Calgene. Desde entonces se han elaborado cerca de cien vegetales con genes ajenos insertados. Los productos que resultan de la manipulación genética se pueden clasificar de acuerdo con los siguientes criterios:

• Organismos susceptibles de ser utilizados como alimento y que han sido sometidos a ingeniería genética como, por ejemplo, las plantas manipuladas genéticamente que se cultivan y cosechan.

• Alimentos que contienen un aditivo derivado de un organismo sometido ingeniería genética.

• Alimentos que se han elaborado Utilizando un producto auxiliar para el procesamiento (por ejemplo, enzimas), creado gracias a las técnicas de la ingeniería genética. Este tipo de sustancias suelen denominarse alimentos recombinantes. Para incorporar genes foráneos comestibles en la planta o en el animal, es preciso introducir vectores o «parásitos genéticos», como plásmidos y virus, a menudo inductores de tumores y otras enfermedades —por ejemplo, sarcomas y leucemias…… Estos vectores llevan genes marcadores que determinan la resistencia a antibióticos como la kanamicina o la ampicilina, que se pueden incorporar a las poblaciones bacterianas (de nuestros intestinos, del agua o del suelo). La aparición de más cepas bacterianas patógenas resistentes a antibióticos constituye un peligro para la salud pública.

Existen diferentes alternativas para conseguir la mejora vegetal mediante la utilización de la ingeniería genética. En el caso de los vegetales con genes antisentido, el gen Insertado da lugar a una molécula de mRNA que es complementaria del mRNA de la enzima cuya síntesis se quiere inhibir. Al hibridarse ambos, el mRNA de la enzima no produce su síntesis.

En el caso de los tomates Flavr-Savr la enzima cuya síntesis se inhibe es la poligalacturonasa responsable del ablandamiento y senescencia del fruto maduro. Al no ser activo, este proceso es muy lento, y los tomates pueden recolectarse ya maduros y comercializarse directamente Los tomates normales se recogen verdes y se maduran artificialmente antes de su venta, con etileno, por lo que su aroma y sabor son inferiores a los madurados de forma natural. En este caso, el alimento no Contiene ninguna proteína nueva.

La misma técnica se ha utilizado para conseguir soja con un aceite de alto Contenido en ácido oleíco (89% o más, frente al 24% de la soja normal), inhibiendo la síntesis deja enzima oleato desaturasa. La introducción de genes vegetales, animales o bacterianos da lugar a la síntesis de proteínas específicas. La soja resistente al herbicida glifosato, Contiene un en bacteriano que codifica la enzima 5-enolpiruvil-shikimato-3-fosfato sintetasa. Esta enzima participa en la síntesis de los aminoácidos aromáticos y la propia del vegetal es inhibida por el glitosato; de ahí su acción herbicida. La bacteriana no es inhibida.

El maíz resistente al ataque de insectos contiene un gen que codifica una proteína de Bacillus thuringiensis, que tiene acción insecticida al ser capaz de unirse a receptores específicos en el tubo digestivo de determinados insectos, interfiriendo con su proceso de alimentación y causándoles la muerte.

La toxina no tiene ningún efecto sobre las personas ni sobre otros animales. La utilización de plantas con genes de resistencia a insectos y herbicidas permite reducir el uso de plaguicidas y conseguir un mayor rendimiento. Además, se ha obtenido una colza con un aceite de elevado contenido en ácido laúrico, mediante la inclusión del gen que determina la síntesis de una tioesterasa de cierta especie de laurel. Los vegetales resistentes a los virus se consiguen haciendo que sinteticen una proteína vírica que interfiere con la propagación normal del agente infeccioso.

Estos vegetales contienen proteína vírica, pero en menor proporción que las plantas normales cuando están severamente infectadas.

Los vegetales transgénicos más importantes para la industria alimentaria son, por momento, la soja resistente al herbicida glifosato y el maíz resistente al insecto conocido como taladro. Aunque en algunos casos se emplea la harina, la utilización fundamental del maíz en relación con la alimentación humana es la obtención del almidón, y a partir de éste, de glucosa y de fructosa. La soja está destinada a la producción de aceite, lecitina y proteína.

Beneficios de la biotecnología de alimentos

Estas nuevas técnicas auguran posibilidades reales de optimizar la producción de alimentos. El método mencionado en el caso de los tomates —cosechados para el con-, sumo directo, sin necesidad de que maduren artificialmente en cámaras— se está aplicando al cultivo de melones, duraznos, plátanos y papayas de mejor sabor, y a flores recién cortadas, cuya duración se prolonga. Más concretamente, la biotecnología influirá positivamente en los siguientes aspectos:

• Mejor calidad de los granos en semilla.

• Mayores niveles de proteínas en los cultivos de forrajes.

• Tolerancia a sequías e inundaciones

‘•Tolerancia a sales y metales.

• Tolerancia al frío y al calor.

Los experimentos de manipulación genética aplicados a  producción de maíz han arrojado un balance positivo en la actualidad el maíz y la soja son los vegetales transgénicos más importantes para la industria alimentaria.

Riesgos de la Biotecnología de los alimentos

La introducción de genes nuevos en el genoma de la planta o del animal manipulado provoca transformaciones impredecibles de su funcionamiento genético y de SU metabolismo celular; el proceso puede acarrear la síntesis de proteínas extrañas para el organismo —responsables de la aparición de alergias en los consumidores…..; la producción de sustancias tóxicas que no están presentes en el alimento no manipulado, así como alteraciones de las propiedades nutritivas (proporción de azúcares, grasas, proteínas, vitaminas, etc.).

Hay suficientes peligros reales como para afirmar que estos alimentos no son seguros. Las experiencias pasadas con biocidas como el DDT, aconsejan una prudencia extrema. Junto a los riesgos sanitarios, la amenaza para el medio ambiente es, incluso, más preocupante La extensión de Cultivos transgénicos pone en peligro la biodiversidad del planeta potencia la erosión y la contaminación genética, además del uso de herbicidas (un importante foco de contaminación de las aguas y de los suelos de cultivo).

Según un informe de la OCDE, el 66% de las experimentaciones de campo con cultivos transgénicos que se realizaron en años recientes estuvieron encaminadas a la creación de plantas resistentes a herbicidas La Agencia de Medio Ambiente de Estados Unidos advierte de que este herbicida de amplio espectro ha situado al borde de la extinción a una gran variedad de especies vegetales del país; por otro lado, está considerado uno de los más tóxicos para microorganismos del suelo, Como hongos, actinomicetos y levaduras.

Otra de las preocupaciones fundadas es el posible escape de los genes transferidos hacía poblaciones de plantas silvestres, relacionadas con dichos cultivos transgénicos, mediante el flujo de polen: la existencia de numerosas hibridaciones entre si todos los cultivos transgénicos y sus parientes silvestres ha sido bien documentada.

La introducción de plantas transgénicas resistentes a plaguicidas y herbicidas en los campos de cultivo conlleva un elevado riesgo de que estos genes de resistencia pasen, por polinización cruzada a malas hierbas silvestres emparentadas creándose así las denominadas «súper malas hierbas», capaces de causar graves daños en plantas y ecosistemas naturales.

A su vez, estas plantas transgénicas con características nuevas pueden desplazar a especies autóctonas de sus nichos ecológicos. La liberación de organismos modificados genéticamente al medio ambiente tiene consecuencias a menudo imprevisibles, pues una vez liberados —el animal o la planta —,se reproducen y se dispersan por su hábitat, imposibilitando cualquier control.

Ver: Organismos Geneticamente Transformados

La Terapia Genética Manipulación de Genes Biología Celular

La Terapia Genética y la Biología Celular
La Manipulación de Genes

El 14 de septiembre de 1990, Ashanti De Silva, una niña de apenas cuatro años, se convertía en el primer paciente sometido a terapia génica. Ashanti, que había heredado un gen defectuoso, sufría una ¡nmunodeficiencia grave. Dicho gen produce una desami-nasa de la adenosina, enzima necesaria para el funcionamiento correcto del sistema inmunitario.

La terapia consistió en insertar copias normales del gen defectuoso y devolver las células tratadas a la corriente circulatoria. Mediante los métodos específicos de la Biotecnología y la Ingeniería genética se está extendiendo el campo de acción de la vacunación preventiva a la inmunoterapia de los tumores, las infecciones crónicas y las alergias.

Por otra parte, las oncoterapias (basadas en los genes que provocan y controlan la proliferación de tumores) están revolucionando el tratamiento del cáncer.

La terapia genética es la técnica que permite la localización exacta los posibles genes defectuosos de los cromosomas y su sustitución por otros correctos, con el fin de curar las llamadas «enfermedades genéticas», entre las que se encuentran muchos tipos de cáncer.

El desarrollo de la terapia genética se ha apoyado en los avances científicos experimentados por determinadas ramas de la biología, como la genética, la biología molecular, la virología o la bioquímica.

El resultado es una técnica que permite la curación de casi cualquier patología de carácter genético.

En el desarrollo de dicha terapia hay que tener en cuenta diversos factores. Por un lado, es necesario saber cuál es «tejido diana», es decir, el que va a recibir la terapia.

En segundo lugar, conocer si es posible tratar in situ el tejido afectado. Igualmente importante resulta determinar el que facilita el traspaso de un gen exógeno a la célula, es decir, qué vector se ha elegir para el desarrollo del nuevo material genético que posteriormente se introduce el tejido.

Finalmente, es preciso estudiar al máximo la eficacia del gen nuevo y saber que respuesta tendrá el órgano o tejido «hospedador», con la entrada del gen modificado.

La finalidad principal de los estudios sobre terapia génica en el ámbito de la medicina es conseguir los mejores resultados tanto en prevención como en investigación, diagnóstico y terapia de las enfermedades hereditarias; sin embargo, esta manipulación del material genético puede ser utilizada en ingeniería genética, con el fin de mejorar determinadas características de los seres vivos.

Los inicios de la terapia génica

Los primeros trabajos en terapia génica se realizaron con ratones, mediante tecnica del ADN recombinante, que consiste en introducir el ADN extraño en los embriones, de forma que dicho ADN se expresa luego completamente, a medida que desarrolla el organismo.

El material genético introducido se denomina transgén; los individuos a los que se les aplica esta técnica reciben el nombre de transgénicos. Con la introducción de estos transgenes se puede lograr la identificación de zonas concretas del material genético para llevar a cabo su cloonación, con el fin de que solo se vean afectadas un tipo específico de células.

Vectores

Los vectores virales agrupan cuatro tipos de virus: retrovírus, adenovirus, virus adnoasociados y herpesvirus; existen también vectores no virales, como el bombardeo con partículas, la inyección directa de ADN, los liposomas catiónicos y la transferencia de genes mediante receptores.

Vectores virales

Los retrovirus comprenden una clase de virus cuyo material genético es una cadena sencilla de ARN; durante su ciclo vital, el virus se transcribe en una molécula bicatenaria de ADN, gracias a la acción de la enzima reverso transcriptasa, que se integra en el genoma de la célula huésped sin aparente daño para ella. La mayor parte de los retrovírus a excepción del HIV, sólo se pueden integrar en células con capacidad para replicarse, lo cual restringe su uso.

Sin embargo, se pueden desarrollar en grandes cantidades y su expresión en la célula hospedadora se realiza durante largos periodos de tiempo. Los adenovirus son un conjunto de virus con ADN lineal de cadena doble.

Los vectores de adenovirus son más grandes y complejos que los retrovirus, pues en su construcción solamente se elimina una pequeña región del material genético vírico.

Su ciclo de infección, que comprende de 32 a 36 horas en un cultivo celular conlleva en primer lugar la síntesis de ADN de la célula y, posteriormente la sintesis y ensamblaje del ADN y las proteínas víricas. Las infecciones de estos virus en seres humanos están asociadas a enfermedades benignas, como la conjuntivitis.

La principal ventaja de su utilización en la terapia génica es que se pueden producir en grandes cantidades y transfieren de forma muy eficaz el material genético a un número elevado de células y tejidos, aunque el hospedador parece limitar la duración de la expresión del nuevo material genético.

Los virus adeno-asociados son muy pequeño no autónomos y con ADN lineal de cadena sencilla. Para la replicación de estos virus es necesaria la confección con adenovirus.

La inserción del material genetico de los adenovírus asociados se suele producir en regiones del cromosoma 19. Los vectores que se forman con este tipo de virus son muy simples, no pueden exceder en mucho la longitud del ADN viral, aproximadamente 4.680 nucleótidos, y son capaces de expresarse a largo plazo en las células que no se dividen; sin embargo, la respuesta que producen en la célula hospedadora es menor que la que se ocasiona con el tratamiento con adenovirus y es difícil la producción de este vector en grandes cantidades.

Los herpesvirus poseen un material genético compuesto por ADN de doble cadena lineal, con un tamaño aproximado de 100 a 250 Kb.

Presentan variaciones en cuanto al tamaño y organización del genoma, contenido genético o células sobre las que actúan. Pero por regla general, este tipo de  de virus son muy útiles, pues es posible insertar en su genoma grandes cantidades de ADN extraño y llevar a cabo durante largos periodos de tiempo infecciones latentes en la célula hospedadora, sin ningún efecto aparente sobre ésta.

En la clase de los gamma-herpesvirus como el virus de Epstein-Barr, se pueden producir infecciones latentes en células en  división, de modo que el material genético que lleva insertado el virus se replica conjuntamente a la división celular y se hereda en toda la nueva progenie de células.

El inconveniente que presentan estos virus es que están asociados a daños linfoproliferativos, con lo cual, para su uso como vectores es necesario identificar estos genes y eliminarlos, manteniendo únicamente aquellos que permitan la replicación del virus y el mantenimiento del plásmido viral. Hasta la fecha, el uso fundamental de los herpesvirus en la terapia génica se limita al empleo in vivo del herpes simples (HSV).

Vectores no virales

El bombardeo de partículas constituye una técnica efectiva de transferir genes tanto in vitro como in vivo. En este método físico el plásmido o porción de ADN es recubierto en su superficie por gotas de oro o tungsteno, de 1 a 3 micras de diámetro. Estas partículas, aceleradas por una descarga eléctrica de un aparato o por un pulso de gas son «disparadas» hacia el tejido.

El éxito de esta técnica puede estar asegurado en los procesos de vacunación. Otra alternativa es la inyección directa del ADN o ARN puro circular y cerrado covalentemente, dentro del tejido deseado.

Este método económico, y un procedimiento no tóxico, si se compara con la entrega mediante virus. Como desventaja fundamental hay que señalar que los niveles y persistencia de la expresión de genes dura un corto periodo de tiempo.

Esta tecnologia puede tener potencial como un procedimiento de vacunación y como e genes a un nivel bajo. Los liposomas catiónicos consisten en la mezcla de un  lipido catiónico de carga positiva y varias moléculas de ADN con carga negativa debido a los fosfatos de la doble hélice.

Este tipo de  vectores se han usado en el tratamiento de la fibrosis sistica y en las enfermedades  vasculares. Se pueden realizar transferencias de estos vía catéter, aunque su uso es limitado, dedido a la baja eficacia de transfección del material genético contenido en este complejo a la célula hospedadora ya su relativa toxicidad.

Un problema que se plantea con las técnicas anteriores es que el vector alcance realmente su objetivo y no quede diseminado por el organismo. Por ello existe un procedimiento que consiste en introducir, junto al material genético que queremos transferir, moléculas que puedan ser reconocidas por los receptores de la célula diana.

Estas moléculas pueden ser azucares, péptidos, hormonas, etc. y su ventaja respecto a otros modelos es que se establece una interacción muy específica, como la interacción transportador/célula, y no muy inespecífica como la que se verifica entre las cargas iónicas.

Experimentos en animales

Los experimentos con animales conforman una parte fundamental en el estudio de cualquiera de las aplicaciones de terapia génica; sus dos objetivos principales son el análisis de la seguridad del sistema de vectores y el estudio de la eficacia de la transferencia de genes.

El efecto de la dosis y su duración es comprobado en varias especies, incluyendo primates y otros animales que sean hospedadores para el virus salvaje (por ejemplo, las ratas del algodón se usan para el estudio de adenovirus). Se analiza la difusión de secuencias vitales, especialmente a las gónadas, y cualquier efecto adverso, como la inflamación tras la administración del vector.

El propósito de estos ensayos no es mostrar que el vector no produce efectos adversos —cualquier clase de droga tiene esa capacidad en determinada dosis—, sino precisar el tipo de suceso adverso que podría esperarse si los humanos estuvieran expuestos al vector, y fijar las posibles dosis que pueden acarrear estos sucesos. Para una enfermedad genética, un ratón con un gen eliminado o un animal con el fenotipo apropiado sería válido en este tipo de estudio.

Terapia génica en seres humanos

Esta terapia está destinada al tratamiento de enfermedades infecciosas y auto inmunes, Las estrategias se basan en la eliminación de poblaciones de células infectadas con virus, como el HIV, mediante administración directa de moléculas de ácidos nucleicos o a través del desarrollo de vacunas. En la terapia contra el cáncer, se puede actuar con diferentes objetivos.

Si se opera sobre las células del sistema inmunitario, se manipulan ex vivo las células efectoras antitumorales del sistema inmune. Estas células son modificadas genéticamente y reimplantadas con el fin de liberar dentro del tumor el producto de los genes exógenos, como las cítoquinas.

Sobre las células hematopeyéticas o formadoras de sangre se actúa incorporando los llamados genes MDR, que confieren mayor resistencia a las altas aplicaciones de quimioterapia en el paciente. Si se actúa directamente sobre las células tumorales, se introducen factores genéticos que provoquen la muerte o apoptosis de las células tumorales o aumenten la respuesta del sistema inmunitario antitumoral del paciente.

Otro de los campos más promisorios de las terapias génicas es el de las inmunoterapias y la fabricación de vacunas biotecnológicas.

Recordemos que nuestro organismo está sometido a múltiples agresiones de parásitos, bacterias y virus. El sistema inmunitario debe clasificar a esos agresores y armar una respuesta efectora capaz de eliminarlos.

■ En el caso de las bacterias extracelulares y de sus productos tóxicos, la respuesta eficaz consiste en la producción de anticuerpos opsonizantes o neutralizantes.

■ Si se trata de bacterias intracelulares (como los micoplasmas) que se replican en el interior de los fagosomas, la respuesta más contundente corre a cargo de las células T que activan los fagocitos en los procesos de hipersensibilidad retardada.

■ Por último, ante una infección vírica, si bien los anticuerpos específicos podrían limitar la difusión del virus a otras células, sólo una respuesta citotóxica (por los linfocitos T citotóxicos) acabará con las células infectadas y erradicará el virus.

Con la vacuna quedamos expuestos a «un material biológico» que imita al agente infeccioso. Por eso, el sistema inmunitario desencadena la resistencia ante el patógeno y lo memoriza, sin experimentar la infección ni la enfermedad. El proceso se asemejaría a introducir en el organismo un «chip» de memoria con determinadas instrucciones. Para vacunar contra un patógeno, se inocula en el organismo un microorganismo muerto (vacuna muerta), un microorganismo vivo pero incapacitado para desencadenar la enfermedad (vacuna viva atenuada) o una porción purificada del patógeno (vacuna subunitaria).

A partir de la Ingeniería genética y la Biotecnología, se perciben tres áreas prometedoras en el campo de la vacunación: la administración de vacunas a través de las mucosas, las vacunas de ADN y las vacunas terapéuticas.

Éstas nuevas técnicas permitirán curar enfermedades como la hepatitis B, el papilomavirus, el herpes genital e incluso el sida. La Biotecnología está proporcionando, entonces, un potencial ilimitado para el desarrollo de nuevas vacunas y, con ello, se está ampliando el campo de acción de la vacunación, además de presentar vehículos efectivos para el tratamiento de determinados tumores y enfermedades virales, lo que puede cambiar la relación del ser humano con las enfermedades del próximo siglo.

Fuente Consultada:
Gran Enciclopedia Universal (Espasa Calpe) – Wikipedia – Enciclopedia de la Vida Tomo I.
Biologia y Ciencias de la Tierra Editorial Santillana Polimodal Cuniglio, Barderi, Bilenca, Granieri y Otros

Accion del Medio Ambiente en la Vida Humana Adaptacion

Adaptación del Hombre Al Medio Ambiente
Acción del Medio Ambiente

Todos los seres vivos muestran diferentes características que se relacionan con el medio en que viven, las cuales se clasifican en anatómicas o estructurales, fisiológicas y comportamentales o etológicas.  A estas características se las conoce como adaptaciones.

Las adaptaciones son respuestas de los organismos a las necesidades y los problemas que les plantea la vida en un medio determinado.

Desde el punto de vista del medio, el agua, la temperatura, la luz, la presión, la disponibilidad de nutrientes, etc., constituyen los factores ecológicos que determinan las adaptaciones estructurales, fisiológicas y etológicas. Ello se debe a que la gama de variables ambientales en los distintos puntos del planeta es sumamente amplia, e incluye, por ejemplo:

•  temperaturas de -70 °C en la Antártida a 50 °C en el desierto del Sahara;
•  la falta de oxígeno cuando se llega a una zona de gran altura o el aumento de presión al descender;
•  la presencia de zonas permanentemente inundadas o de zonas áridas;
•  la existencia de medios hipersalinos o hiposalinos;
• la falta de nutrientes; la luz intensa o la oscuridad absoluta, etcétera.

Uno de los aspectos más importantes de la adaptación al medio es el análisis de la relación existente entre estructura y función. Por ejemplo, en una zona árida, el desarrollo del sistema radicular de una planta (estructura) posibilita la captación de agua en los niveles profundos (función), y el desarrollo de las alas en un ave (estructura) facilita la dispersión al permitir el vuelo (función).

LA VIDA DEL HOMBRE SEGÚN SU MEDIO AMBIENTE: Si analizamos el tipo de vida de los habitantes de una región cualquiera podemos advertir fácilmente la estrecha relación que mantiene con el medio geográfico. Muchas regiones poseen actualmente una población económicamente poco desarrollada , debido a las condiciones desfavorables del medio. Esto es lo que ocurre en las selva, en la tundra , y en los desiertos, regiones donde el paisaje natural apenas ha sido afectado por la actividad de la población, que vive bajo la influencia aplastante de una naturaleza hostil.

En las regiones donde el medio se ha mostrado más acogedor se ha desarrollado notablemente la civilización y el hombre parece haber logrado un ajuste favorable con la naturaleza. Este ajuste, sin embargo, no ha sido fácil, porque para alcanzarlo ha debido el hombre trabajar intensamente. Pero ni aun el trabajo humano hubiera sido suficiente para libertar totalmente al hombre de su medio.

medio ambiente y el hombre

El hombre civilizado necesita de todo el rendimiento de su inteligencia en forma de invenciones, descubrimientos, avances en el conocimiento de las leyes de la naturaleza y el mejoramiento de su organización social, para multiplicar la efectividad de su esfuerzo. Todo este progreso tecnológico, propio de nuestra civilización industrial, ha permitido al hombre moderno utilizar las ventajas que la naturaleza le ofrece y sortear los obstáculos que le presenta.

El hombre civilizado ha podido crear el paisaje cultural de muchas regiones derribando los bosques, exterminando los animales dañinos y domesticando los útiles, irrigando las tierras secas, drenando ciénagas, construyendo puentes y embalses, fabricando redes de ferrocarril y carreteras y tendiendo instalaciones telefónicas y eléctricas. Ha construido ciudades, puertos y fábricas, creado instituciones sociales, dictado leyes y desarrollado las industrias, pero el hombre no ha dominado todavía, ni dominará nunca, el medio geográfico.

Las grandes características de la superficie terrestre y los procesos de la naturaleza que constituyen los elementos fundamentales del paisaje natural, permanecen invariables después de más de un millón de años de haber aparecido sobre la tierra los primeros seres semejantes al nombre.

El progreso de la humanidad es, pues, el resultado no de la conquista de la naturaleza por el hombre, sino de que el hombre ha ido comprendiendo mejor la naturaleza y ha colaborado inteligentemente con ella. Al basar su economía sobre las leyes naturales, de acuerdo con las características geográficas de cada región, el hombre ha logrado una mayor producción y, por lo tanto, un nivel de vida más alto.

La habitación humana. Además de alimentación y vestido, el hombre necesita descansar diariamente, entregándose al sueño. Desde su aparición sobre la tierra el hombre necesitó un refugio para estas horas en que podía estar a merced de los animales o de otros hombres. Las ramas más altas de los árboles y las cavernas debieron ser sus primeras habitaciones. Más tarde el hombre comenzaría a construir su vivienda de acuerdo con los recursos que el medio le ofrecía.

La adaptación de la habitación a las condiciones del medio es uno de los hechos geográficos más evidentes, pues el tipo de vivienda está estrechamente influenciado, entre otros factores, por el clima y la vegetación, así como por el tipo de ocupación de nivel de civilización de los habitantes de cada región.

En las regiones de clima frío las paredes de las casas son gruesas, presentan muchas ventanas para dar paso a la luz y los techos son muy inclinados para que no retengan la nieve. En las latitudes medias las casas poseen menos ventanas y los techos son menos inclinados; en las regiones de clima mediterráneo las casas son relativamente pequeñas, pintadas de blanco o de colores claros y los techos son casi siempre horizontales En las bajas latitudes hay la tendencia a construir grandes corredores en torno a las casas, y patios centrales para aliviar el fuerte calor.

Las casas difieren tanto por su forma como por sus materiales, ya que el hombre debe adaptar su construcción a los recursos disponibles en la región. Esta variedad incluye casas de madera, de piedra, cavernas excavadas en las rocas, casas de adobe, tiendas de pieles, chozas de techo de paja, iglús de hielo y rascacielos de acero y concreto.

La casa de madera predomina en las regiones de bosques. En algunos casos, como en los templos del Japón, las construcciones de madera alcanzan enorme tamaño. En Suecia y Noruega, en el norte de Rusia y de Canadá, y en Alaska, los bosques de coníferas suministran madera para la construcción de las casas. En el sur de Estados Unidos, predominan todavía las casas de madera.

En las zonas que bordean el Mediterráneo, en cambio, donde el bosque es de poco rendimiento  y hay abundancia de rocas como la arenisca y la arcilla, predominan las casas de piedra; y en algunas zonas del sur de Europa se encuentran muchas casas construidas perforando las rocas, en forma de cavernas artificiales.

En las regiones áridas, donde la madera y la piedra escasean, es costumbre construir las casas con ladrillos de arcilla secada al sol. En la antigua Mesopotamia se construía ya en esta forma y el método se mantiene en el Oriente Próximo, en el norte de África y aun en China. Las casas de adobe de los indios pueblos del Suroeste de Estados Unidos, son excelentes ejemplos de este tipo de habitación.

En las estepas, donde todavía los pastores nacen la vida nómada, se encuentran las tiendas de pieles o fieltro. Las yurtas o tiendas redondas de los mongoles pertenecen a este tipo de habitación, fácil de armar y desarmar y de transportar.

En las bajas latitudes, en regiones cálidas y lluviosas, es común la casa construida de maderas y cubierta de hojas secas de palma. Este tipo de construcción se encuentra en América, África, en el sureste de Asia y en las islas del Pacífico.

Los pueblos pescadores primitivos que vivían en las márgenes de los lagos fabricaban sus casas sobre pilotes, encima del agua. Estos palafitos se encuentran aún entre los pueblo aborígenes de distintas regiones.

Los esquimales construyen sus casas permanentes de piedra y tierra para el invierno, pero pueden construir en pocos minutos refugios temporales de hielo (iglús). En los cortos veranos árticos viven en tiendas de pieles.

El desarrollo de la civilización ha estimulado el crecimiento de las ciudades. Al aumentar el valor de la tierra la tendencia actual en las grandes ciudades, es a fabricar casas más altas, para ahorrar espacio. El ejemplo más característico de este crecimiento vertical de la habitación humana lo ofrece la ciudad de New York con sus numerosos rascacielos.

Condiciones Para La Vida en el Planeta Factores Ambientales Basicos

Condiciones Para La Vida en el Planeta
Los Factores Ambientales

la vida en el planeta

TEMA RELACIONADOS

La Aparición De La Vida
La Teoría De La Evolución De Charles Darwin
La Terapia Genética
La Eutanasia o Muerte Digna
El Origen Del Hombre En El Planeta
El Proyecto Genoma Humano

La Clonación Humana y Animal
La Eugenesia o Reproducción de las Mejores Especies 

LA VIDA EN EL PLANETA TIERRA: Separar el mundo inerte del mundo organizado parecía, hasta nace pocos lustros, una tarea muy sencilla: un elefante es un ser vivo y una roca no. Mas al profundizar en el conocimiento de los seres infinitamente pequeños, se llega a dudar y se ve como algo sumamente confuso la línea divisoria entre los dos mundos. Hay cuerpos que no es posible determinar de un modo claro si son seres vivos o moléculas inorgánicas muy complicadas. Pertenecen al mundo de las proteínas.

Los virus, por ejemplo, son microbios sumamente pequeños. El productor de la poliomielitis, que tantos quebraderos de cabeza ha proporcionado a médicos y biólogos, mide una centésima de miera. Son necesarios, por tanto, 100.000 de ellos puestos en fila para formar un milímetro. Se comprende que sólo el microscopio electrónico haya sido capaz de hacerlos visibles.

Las nucleoproleínas, sustancias químicas formadas por moléculas sumamente complicadas, en algunos casos se comportan exactamente igual que los virus y se ha llegado a dudar si son seres vivos o sólo compuestos químicos. Los doctores Fraenkel y Williams, de los Estados Unidos, afirmaron que hablan obtenido en sus laboratorios nucleoproteínas vivas por síntesis, es decir, hablan creado vida, pero en una forma tan rudimentaria., que sólo podían existir sobre otras materias vivas. Se trataba, por tanto, de algo que está en la borrosa línea que separa lo vivo de lo inerte.

Pero esta imitación o creación de vida simplicísima en el laboratorio se halla a gran distancia de la complejidad de un ser vivo tan sencillo como puede ser una ameba o un hongo.Se conocen las manifestaciones de la vida y se señalan sus notas características, pero los científicos están acordes en no saber qué cosa es en sí la vida.

Porque ésta presupone, además de una cierta organización de los elementos que forman el cuerpo vivo, la unidad de intención, es decir, la tendencia por la que todas las partes contribuyen a una finalidad. En un huevo, por ejemplo, se encuentran uña serie de sustancias (azúcares, grasas, proteínas y agua) que son los compuestos orgánicos indispensables para que exista la vida.

Éstos tienden a transformarse en un polluelo, que es un microcosmos complicadísimo en el que billones de células trabajan ordenadamente para cumplir ese fin o tendencia que da por resultado un pollo adulto. ¿Por qué no se descomponen dichas sustancias y dan lugar a carbono, hidrógeno, oxígeno, nitrógeno y pequeños rastros de fósforo, azufre, calcio, etc.? ¿Por qué tienden a complicarse en lugar de descomponerse?

En esta tendencia, que supone organización, se encuentra oculto el gran secreto de la vida.

Los cuatro grandes elementos del mundo viviente son el Carbono, el Oxígeno, el Hidrógeno, y el Nitrógeno. Sin ellos no puede existir vida alguna y es tan importante el papel que juegan en la Biología, que el 99 % de todo ser vivo está formado por estos cuatro cuerpos simples.

En el mundo impera una ley implacable de cambio, de evolución, que somete a todas las cosas y resulta imposible de evitar y menos prever en cuanto a su duración y término. En los seres inertes, la erosión, los elementos atmosféricos, la gravedad, etc., determinan este desgaste continuo que se da en las montañas, en los monumentos y en cualquier obra humana o de la naturaleza.

Los seres inertes no pueden luchar contra este desmoronamiento constante y fatal, pero los seres vivos sí, y para evitarlo se nutren y asimilan sustancias que les son necesarias. Durante su infancia y juventud, esta asimilación les proporciona energía suficiente no sólo para vivir, sino para crecer. Es en la vejez cuando la nutrición no es suficiente para detener la caída del ser vivo hacia la muerte, donde se precipita por un proceso natural, de desasimilación, pérdida y decadencia.

Los seres vivos necesitan, pues, extraer del ambiente los cuatro elementos antes citados y que permitirán al laboratorio de su cuerpo transformarlos en sustancia propia.

La asimilación del Oxígeno y del Hidrógeno por entrar estos elementos en la formación del agua, no constituyen problema, pero ni el Carbono, ni el Nitrógeno pueden captarse directamente del mundo natural. Los procesos por los cuales los seres vivos se ingenian para apropiarse estos elementos y el ciclo de cambios constantes por los que pasan de unos vivientes a otros, constituye uno de los hechos más admirables de la Biología.

La biosfera es la región de la Tierra que alberga a los seres vivos. En sentido estricto, es la zona comprendida entre los fondos marinos abisales, situados a unos 11.000 m de profundidad y la altura máxima terrestre, que es de casi 9.000 m de altura sobre la superficie del mar. En realidad estos 20 Km. de espesor máximo se reducen enormemente si consideramos, por un lado, que la gran mayoría de los mares y océanos no son tan profundos y por otro, que los seres vivos que habitan el medio terrestre no lo hacen más allá de unos 200 m por encima del suelo.

En cualquier caso la biosfera constituye una capa muy delgada si la comparamos con el resto de capas que forman nuestro planeta y está formada por gran cantidad de ambientes distintos donde los seres vivos desarrollan sus actividades de maneras muy diversas.

La biosfera no es una capa homogénea, debido a que los organismos tienden a acumularse en determinados lugares donde las condiciones para la vida son más adecuadas. Estas condiciones vienen determinadas básicamente por los denominados factores ambientales, de los cuales los más importantes son: la temperatura, la luz, el agua y la presión.

La temperatura
La Tierra posee unas condiciones únicas para el desarrollo de la vida sobre su superficie si la comparamos con otros planetas del sistema solar. Esto se debe entre atrás cosas a que, por su distancia del sol f por la existencia de las capas atmosféricas, disfruta de un régimen de temperaturas adecuado.

El desarrollo y mantenimiento de la vida requiere que la temperatura se mantenga dentro del intervalo comprendido entre la temperatura extrema mínima de 0°C y la temperatura extrema máxima de 50 °C aproximadamente.

A temperaturas inferiores a los 0°C, el agua, cuya proporción es mayoritaria en los organismos, se congela, mientras que por encima de los 50 :C, las estructuras biológicas más importantes que forman la materia viva, como las proteínas, que veremos en caratillos posteriores, sufren un proceso denominado desnaturalización, por el cual pierden tanto su estructura física como las propiedades. Existe una temperatura óptima entre los 5 y los 30 °C, en la que la mayoría de los seres vivos desarrollan sus funciones a la perfección.

Hay que tener en cuenta además que el proceso vital en cualquier organismo se compone de una gran cantidad de reacciones químicas que, como tales, dependen muy directamente de la temperatura a la que se realicen. De esta manera y siempre dentro del intervalo de temperaturas óptimas, a mayor temperatura, mayor velocidad de reacción y viceversa.

la vida en el planeta tierra

Los mamíferos pueden conservar el calor de sus cuerpos con independencia de la temperatura ambiental, pudiendo vivir en lugares muy fríos, como es el caso de los osos polares.

No obstante, es fácil encontrar en el seno de la biosfera zonas donde se sobrepasen, no sólo el rango de temperaturas óptimas, sino también el de temperaturas extremas, por lo que la gran mayoría de los organismos han desarrollado diferentes estrategias para mantener sus funciones vitales de manera adecuada bajo dichas condiciones.

Entre los seres vivos, son los animales por la variedad y complejidad de sus funciones, los que han tenido que desarrollar mecanismos más eficaces para el control de su temperatura interna. Dependiendo de cómo realizan este control, podemos distinguir entre animales poiquilotermos, como los reptiles, y homeotermos, como los mamíferos. A los primeros se les conoce vulgarmente como animales de sangre fría y a los segundos como animales de sangre caliente.

Los poiquilotermos se caracterizan por carecer de mecanismos eficientes para el control de su temperatura interna por lo que su metabolismo depende mucho de la del exterior, viéndose obligados, muchas veces, a pasar períodos de inactividad cuando las condiciones son extremas. En cambio, los homeotermos, consiguen mantener una temperatura interna siempre constante en torno a los 37 °C, lo cual les permite realizar sus funciones con bastante independencia de las condiciones ambientales.

reptil, la vida en el planeta

A Los reptiles, como el yacaré de la fotografía, no pueden mantener su temperatura interna de manera independiente a la del medio, por lo que únicamente pueden vivir en sitios cálidos.

Los vegetales generalmente combaten las temperaturas poco favorables perdiendo, de manera temporal, sus partes más sensibles (hojas, partes aéreas, etc.) y desarrollando estructuras especiales de resistencia (semillas, yemas, zonas leñosas, etc.).

La luz: La luz constituye un factor ambiental muy importante, ya que es la fuente de energía primaria a partir de la cual las plantas pueden desarrollar el complejo proceso de la fotosíntesis. Mediante este proceso se convierte la energía lumínica en energía química, la cual puede ser utilizada posteriormente en otros importantes ciclos metabólicos, bien por la misma planta o bien por otros organismos. La importancia de la fotosíntesis es tan grande que podemos afirmar sin duda alguna que el mantenimiento de la vida sobre la Tierra depende de este proceso.

La luz también influye en el desarrollo de la morfología de las plantas, determinando la dirección en la que deben crecer los tejidos y brotes permitiendo así una disposición óptima para la captación de energía.

Para los organismos no fotosintéticos, la luz es un factor que posibilita la visión y por tanto la facultad de relacionarse con el medio en el que viven. También interpone en los procesos de regulación de la actividad estacional. La distinta duración de los períodos de iluminación diurna a lo largo del año constituye un fenómeno denominado foto período que actúa como reloj biológico y sirve para desencadenar  importantes fases en la vida del organismo como por ejemplo la reproducen, la muda, la migración, la floración, etc.

En el medio acuático la penetración de a luz es menor que en el medio terrestre, le tal manera que a partir de los 200 m le profundidad reina una oscuridad absoluta. La zona comprendida entre la superficie del agua y la profundidad hasta donde llega la luz se denomina zona fótica, y es donde se acumula la mayor parte de los organismos acuáticos distribuyéndose en estratos o capas según las necesidades de luz que tienen.

La presión: El medio que rodea a los seres vivos ejerce una presión sobre ellos que también influye en la estructura y fisiología de los mismos.

En el medio terrestre, en el que los organismos están rodeados de aire, la presión se denomina presión atmosférica. Su valor varía ligeramente con la altura v la temperatura, de tal modo que al nivel del mar y 0°C, es de 760 mm. de Hg ( 1atmósfera), pero disminuye progresivamente a medida que ascendemos y también a medida que la temperatura aumenta. La  presión que se registra en el medio acuático se denomina presión hidrostática y su valor depende sólo de la altura de la capa de agua que hay por encima del organismo. S

u valor aumenta de manera lineal una atmósfera cada 10 m.  profundidad, de tal manera que a unos 10 m. la presión llega a ser de una tonelada por cada cm;. lo cual no impide que puedan vivir algunos organismos especialmente adaptados.

Esta variación de presión, si la comparamos con la que se produce en el medio terrestre, es muy grande, lo que provoca que la mayoría de los organismos acuáticos desarrollen sus actividades únicamente a la profundidad que están preparados para soportar, pudiendo perecer si la abandonan accidentalmente. Esta situación se hace drástica en los organismos que poseen cavidades internas rellenas de aire, como es el caso de muchos peces, mamíferos cetáceos y aves buceadoras. Estos organismos pueden morir aplastados o sufrir trastornos fisiológicos desastrosos si se sumergen a una profundidad excesiva.

El agua: El agua es la sustancia que se encuentra en mayor proporción formando parte de la materia de todos los seres vivos. En algunos casos puede llegar a constituir más del 90% del volumen total del organismo. Su importancia queda patente si consideramos la gran cantidad de funciones que realiza: sirve de disolvente en las reacciones bioquímicas que se producen en el interior de la célula; es el medio de transporte de los nutrientes y desechos en muchos organismos; interviene en la transpiración y fotosíntesis de las plantas; sirve de esqueleto hidrostático en muchos invertebrados; constituye el medio en el que viven los organismos acuáticos y, por último, sirve de controlador de la temperatura ambiental y corporal dada su elevada capacidad calorífica.

Todo organismo mantiene un equilibrio por el que se pierde y se incorpora agua continuamente durante el desarrollo de sus actividades vitales y que recibe el nombre de equilibrio hídrico. Todos los seres vivos, desde los protozoos unicelulares hasta los mamíferos más grandes poseen mecanismos para controlar eficazmente dicho equilibrio. Su mantenimiento es más fácil en los organismos marinos que en los que viven en agua dulce.

En los organismos terrestres es donde se dan los mecanismos de regulación más sofisticados, porque son los que más fácilmente pueden perder el agua que contienen (por transpiración, respiración, etc.) sufriendo, además, mayores dificultades para incorporarla. Es por ello que la disponibilidad de agua constituye un importante factor que condiciona enormemente la distribución de los organismos terrestres.

Fuente Consultada: DIDÁCTICA Enciclopedia Temática Ilustrada Editorial Oriente

La Enfermedad de Vaca Loca en el Ganado Bovino

La Enfermedad de Vaca Loca

ANIMAL VACA ENFERMALa ganadería comprende las diversas actividades (alimentación, selección, reproducción e higiene) que se desarrollan en la cría de animales, con el fin de obtener determinados productos principalmente destinados a su consumo por el ser humano.

La ganadería constituye para la mayoría de los países una actividad fundamental. Con la cría de ganado, el ser humano obtiene productos esenciales en la cadena alimentaria, como carnes, huevos, leche y todos sus derivados. El ganado puede ser usado como medio de transporte, ya sea de carga o de tracción; incluso en algunos países, como la India, para trabajos forestales.

Se crían animales para extraerles sus lanas y pieles que luego serán utilizadas por las industrias textiles, peleteras y de calzado. Muchos bienes fabricados por el hombre usan como materia prima productos animales: los cosméticos, los sueros, algunas medicinas, abonos, bisutería, etc. La equitación y la lidia de toros son actividades con muchísima demanda en ciertos grupos sociales de determinados países. Algunas especies domésticas se criar como animales de compañía o para distintos servicios, como en el caso de los perros, los cuales se utilizan para pastoreo, caza y como apoyo en determinadas acciones de la policía, el ejército y los bomberos.

En los países desarrollados, la producción de animales, generalmente, forma parte de las explotaciones agrícolas, en estrecha unión con los restantes componentes de la explotación (producción forrajera, instalaciones, mano de obra, etc.). En la mayoría de los casos, la ganadería tiene como objeto la transformación de productos vegetales, o subproductos industriales, en productos animales: los animales se dividen en los que pueden consumir vegetales celulósicos espontáneos o cultivados gracias a los microorganismos que se encuentran en su conducto digestivo (caballos, rumiantes, conejos) y los que sólo consumen alimentos con un porcentaje más reducido de materias celulósicas, como el grano (cerdo y aves de corral).

En algunos países, la ganadería evoluciona cada vez más hacia formas industriales. Aunque esta última tendencia se manifiesta en casi todas las especies, se ha llegado a comprender que las estructuras artesanales de producción, del tipo de la explotación familiar, pueden resultar tan eficaces como las estructuras industriales, a condición de que estén bien dirigidas y que se sitúen en un entorno muy estructurado en lo que concierne especialmente a aprovisionamiento y desarrollo (cooperativas, grupos de productores, etc.).

El mal de las «vacas locas»

Desde mediados de la década de los ochenta del siglo XX, el territorio europeo es escenario de una catástrofe de dimensiones aún por definir, que afecta sobre todo al ganado vacuno. La encefalopatía espongiforme bovina (EEB) se ha propagado vertiginosamente. En Inglaterra, país más afectado, se han tenido que sacrificar decenas de miles de cabezas. España, Francia y Alemania han dado ya la voz de alarma al detectar nuevos casos en sus territorios. La mayor gravedad radica en que es una enfermedad transmisible al hombre a través de la ingestión de tejidos infectados (óseos o carnicos). En la Unión Europea se está manifestando una situación de creciente preocupación al confirmarse la aparición de casos de la variante humana de la encefalopatía espongiforme bovina, la enfermedad de Creutzfeld-Jacob.

El fenómeno neurodegenerativo denominado, en una acepción general, como encefalopatías espongiformes transmisibles es conocido desde hace tiempo. El nombre proviene de las observaciones al microscopio que permiten ver el cerebro infectado lleno de poros, como si fuera una esponja. Estas enfermedades provocan un fallo en el control motor, seguido, en general, por demencia, a veces por parálisis y, finalmente, la muerte. La referencia más temprana se tiene en 1732, cuando se describieron los síntomas en ovejas.

En esta especie animal y en la cabra, la encefalopatía se denomina scrapie o tembladera, pero no fue hasta dos siglos más tarde, en 1938, cuando se demostró que era una enfermedad transmisible. Existen enfermedades neurodegenerativas similares en diversas especies animales, tales como ciervo, alce, visón, felinos y bovinos. En este último caso recibe el nombre de encefalopatía esoongiforme bovina (EEB). En humanos, la enfermedad de Creutzfeldt-Jakob fue ‘dentificada en 1920, aunque no se asoció al scrapie hasta 1950.

¿ Cómo se transmite la encefalopatía espogiforme bovina?

El periodo de incubación es variable, en general, entre tres y cinco años, aunque Puede ser superior. La vaca cuando enferma, parece nerviosa, pierde peso, tiene dificultades para andar y la producción de leche desciende. La procedencia de la enfermedad en las reses es todavía objeto de debate. Parece ser que la forma bovina tiene su origen en el scrapie de las ovejas. Estudios epidemiológicos indican que son fuente de contaminación ha sido la utilización de carcasas de animales contaminaos (vacas y ovejas) para fabricar piensos para el ganado vacuno. Se cree que la enfermedad ha derivado de la inclusión de material bovino contaminado en la fabricación de los piensos, que se produjo entre 1978 y 1980.

El rápido incremento de los enfermedad a mediados de los noventa (850 casos por semana en 1994) se debe probablemente a la inclusión de animales enfermos, no diagnosticados como tales, la fabricación de piensos para consumo bovino. Esta práctica se prohibió en julio 1988 en el Reino Unido pero la materia prima siguió exportándose. La mayor parte de los casos descritos en países europeos tiene su origen en animales exportados Reino Unido o alimentados con harina de dicha procedencia.

En estos momentos, la incidencia de la EE. UU. en el conjunto de la Unión Europea está disminuyendo. En el Reino Unido se ha producido un descenso del 40 en el número de casos descritos en el 2000 respecto a 1999 (1.136 casos), val• que debe compararse con los 36.000 casos descritos en 1992, el año de mayor incidencia. La medida comunitaria que obliga desde el 1 de enero del 2001 a la realización de un test post mortem para descartar el mal en todos los bovinos de m de 30 meses que vayan a entrar en la cadena alimentaria, producirá, sin duda, u aumento del número de animales enfermos detectados. Con todo, los casos positivos corresponden, cada vez más, a animales de mayor edad, lo cual es un buen síntoma, ya que puede presuponerse que la mayoría han nacido, y probablemente si han sido infectados, antes de la crisis de marzo de 1996 (cuando se detectó nueva variante de la enfermedad de Creutzfeldt-Jakob en la especie humana, as ciada al consumo de carne de reses afectadas>. Debido a que el periodo de incubación en las vacas es de 3-5 años, con cierta variación, la eficacia de las medida adoptadas sólo podrá ser valorada totalmente en los años 2004-2005.

Medidas para controlar el mal de las «vacas locas» en la Unión Europea

Los expertos afirman que la enfermedad puede erradicarse con la normativa en vigencia pero que para ello resulta imprescindible que los países extremen el celo para garantizar los controles del ganado y la exclusión de las harinas de origen animal en su alimentación. La medidas adoptadas por la Unión Europea para frenar la expansión d la epidemia son:

— En julio de 1994 se prohibió el uso de harinas de carnes y huesos de mamíferos para la fabricación de alimentos para rumiantes. La prohibición se convirtió en total (para todo el ganado) a partir del 1 de enero del 2001.

— Se introdujeron medidas más eficaces para tratar los despojos de animal contaminados, con el fin de reducir la capacidad infecciosa al mínimo (a partir de abril de 1997).

— Se adoptaron medidas de vigilancia activa para la detección, control y erradicación de la EEB a partir de mayo de 1998, que se complementaron a partir del. de enero del 2001 con la obligatoriedad de analizar todas las reses de más de meses de edad antes de su introducción en el mercado para consumo human

— Se obligó a la eliminación de los restos animales considerados de riesgo dula espinal, cerebro, ojos y amígdalas) de ternera, oveja y cabra en toda la a partir de octubre del 2000, a los que se añadió el intestino a partir de diciembre del mismo año. Dichos restos no pueden ser usados para el consumo de humanos ni para el de animales. Precisamente, se ha comprobado que las partes señaladas, las cuales habían sido ya descartadas en varios países miembros con anterioridad, son responsables de la infección en un 95% de los casos. Sin embargo, el desbloqueo a las propuestas de la Comisión Europea en algunos países no se ha producido hasta muy recientemente, tras la aparición de casos de EEB en países como Alemania y España.

— Se prohibió el uso de animales no aptos para el consumo humano en la fabricación de piensos a partir de marzo de 2001.

Aparte de éstas, algunos países, especialmente aquellos que tienen una mayor incidencia de la enfermedad, han adoptado otras medidas específicas. Es de destacar que todas las decisiones comunitarias sobre este tema están basadas en la evaluación y asesoramiento científico y se revisan de forma continua para actualizarlas en función de la nueva información científica. Por su parte, la Comisión Europea realiza inspecciones en los países miembros para verificar la correcta aplicación de las normas.

En definitiva, las medidas adoptadas han consistido en eliminar de la cadena alimentaria (humana y animal> todas las partes del ganado susceptibles de ser vehículos de alto riesgo de contaminación, es decir, médula espinal, cerebro, ojos, amígdalas e intestinos. Se consideran tejidos con un cierto riesgo de infección las vísceras (riñones, hígado, pulmón, páncreas, nódulos linfáticos y placenta).

El comité de científicos de la Comisión Europea ha valorado la inclusión de los chuletones, ya que en principio pueden ser considerados alimentos de riesgo, si no han sido bien cortados, por su cercanía a la espina dorsal. Los bistés se consideran seguros, aunque se puede incrementar la seguridad si se eliminan los nervios y el tejido linfático de la carne. La leche y sus derivados, el sebo y la gelatina son considerados seguros. Entre los materiales no alimentarios susceptibles de suponer algún limitado riesgo de transmisión, están las vacunas (humanas y veterinarias) y los cosméticos preparados con material bovino.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)

Vaca Que Da leche Maternizada Rosita Primer Bovino Clonado en el Mundo

Vaca Rosita Que Da Leche Maternizada

La tecnología utilizada para obtener la vaca clonada surge de una Resolución del Ministerio de Agricultura nacional, con el visto bueno de la CONABIA. Rosita vaca clonada por científicos argentinos con genes bovinos y humanos, y ahora comenzó a producir leche similar a la materna con el fin de contribuir en la lucha contra la mortalidad infantil.

La lactancia materna  es una  de las formas mas eficaces de asegurar la salud de los niños.  leche humana tiene más de 370 componentes específicos que inmunizan al bebe tanto de enfermedades inmediatas como futuras, y se está tratando de concientizar a la población de la importancia del amamantamiento de los bebes, ya que se podría evitar mas de 1.000.000 de muertes al año. El mejor alimento para el recién nacido es la leche materna y se lo debe amamantar hasta los 6 meses de edad.

Rosita ISA, nació en abril de 2011 y es el primer bovino bi-trans-génico en el mundo capaz de producir leche maternizada. Un logro producto del trabajo del INTA junto con la Universidad Nacional de San Martín. La ternera clonada nació en el primer cuatrimestre de 2011 y tiene un perfecto estado de salud. «Hemos cumplido con todos los requerimientos relacionados con su crianza artificial, su calendario sanitario y las disposiciones de la Comisión Nacional de Biotecnología Agropecuaria (CONABIA)», afirmaron los técnicos.

Es una manera de contribuir con la lucha contra la mortalidad infantil, ya que una proteína permite evitar enfermedades infecciosas del aparato digestivo y la otra asimilar el hierro, es decir, evitar la anemia en los niños recién nacidos

Rosita ISA -llamada así por el acrónimo compuesto por la «I» de INTA y la «SA» de San Martines el primer bovino nacido en el mundo al que se le incorporaron dos genes humanos que codifican dos proteínas presentes en la leche humana. Los investigadores indicaron en junio de 2012, por métodos de Biología Molecular, que la lisozima y lactoferrina humanas se encuentran en la leche de Rosita ISA. Hoy día, el INTA y la UNSAM muestran al mundo el primer bovino del mundo que, efectivamente, produce leche maternizada. Un logro maravilloso.

LA CURA DE ENFERMEDADES  OTRAS ENFERMEDADES
Los primeros medicamentos transgénicos ya llegaron:
Las vacas transgénicas argentinas del laboratorio BioSidus no son los únicos mamíferos utilizados a nivel mundial para producir en su leche proteínas terapéuticas; o sea, moléculas que curan enfermedades humanas.

Este tipo de desarrollo tecnológico se realiza esencialmente en otros tres países: Estados Unidos, Francia y Holanda. En Francia, la empresa biotecnología Bioprotein cría conejas modificadas genéticamente para que produzcan en su leche proteínas llamadas recombinantes, utilizadas en la lucha contra tumores.

En Holanda, Pharming Group utiliza, al igual que BioSidus, la vaca como «biorreactor» para producir medicamentos humanos. El laboratorio estadounidense Genzyme Transgenic Corporation hizo otra apuesta, al modificar cabras que producen en su leche una proteína humana, llamada Atryn.

Esta molécula es usada para combatir una enfermedad genética poco común, que disminuye la fluidez de la sangre generando accidentes cardiovasculares que pueden ser fatales. En 2006, esta molécula producida por cabras obtuvo, por parte de la máxima autoridad europea la autorización de comercialización en todos los países de la Unión Europea, determinando de este modo que no existen riesgos para el hombre con la utilización de moléculas producidas por mamíferos modificados genéticamente. Con este antecedente, es probable que los medicamentos producidos por las vacas argentinas tengan un gran futuro en el escenario mundial.

Fuente Consultada: Diario Digital «La Nación»  y Revista «El Federal»

La eugenesia las especies y la reproduccion de los mejores Darwinismo

La Eugenesia Las especies y La reproducción

ESPECIE: Conjunto de individuos capaces de dar origen a hijos que puedan tener descendencia fértil. Definiciones algo más concretas, hablan de «especie evolutiva», entendida como —siguiendo la definición del naturalista George G. Simpson (1902-1984)— una estirpe (o secuencia de poblaciones de ancestros-descendientes) que evoluciona separadamente de otras y que tiene un papel y unas tendencias de evolución propias y de carácter unitario.

Éste es el concepto más ampliamente aceptado y de mayor consenso, al menos entre los zoólogos. El asumir una especie como biológica, implica evolutivamente asumir que es una población reproductivamente aislada, por lo que constituye un linaje evolutivo separado y que es reforzado por una serie de barreras que pueden ser de carácter geográfico o biológico

En realidad, el concepto de especie tiene mucho de ambiguo. Generalmente, las poblaciones vecinas de un determinado animal pueden cruzarse, pero entre poblaciones de áreas geográficas más alejadas puede producirse una disminución de la fertilidad si intentan el cruzamiento, hasta llegar a la imposibilidad entre poblaciones muy distantes.

Se puede entender esta reducción progresiva de la fertilidad como debida a la posesión de dotaciones cromosómicas que se van diversificando a medida que aumenta la distancia.

Eugenasia

Ahora bien, los miembros de esas poblaciones distantes e infértiles por cruzamiento, ¿pertenecen a la misma especie o a especies diferentes?. Como no pueden cruzarse, habría que asignarlos a especies diferentes. Pero como están conectados por una serie continua de poblaciones cruzables, se podría considerar que, a fin de cuentas, pertenecen a la misma especie. Desde este punto de vista, el concepto de especie tiene algo de relativo, aunque, por otra parte, no deja de ser consecuente con el gradualismo histórico darwiniano.

Además, el concepto moderno de especie, basado en el aislamiento reproductivo, no es fácil de aplicar a aquellos organismos eucariotas (dotados, recuerden, de núcleos) que se reproducen sin apareamiento, de modo que cada miembro de la especie está aislado reproductivamente.

Problemas parecidos los plantean aquellas especies que se reproducen de forma vegetativa (por fisión del progenitor), por partenogénesis (desarrollo a partir de óvulos no fertilizados) o por auto fertilización de un hermafrodita.

En esos casos hay que recurrir a otros criterios de clasificación.

La verdad, no encuentro ningún placer en estos tipos de diferenciación que con más frecuencia de la deseada han conducido —aunque sea indirectamente— a la discriminación, a contemplar a «los otros» como enemigos, o como esclavos (esto es patente con los «otros animales», los no humanos, que nuestra especie maltrata a menudo innecesariamente).

Encuentro un mayor consuelo en los análisis de parentesco  entre especies diferentes que se realizan analizando las cadenas de aminoácidos de algunas de sus proteínas, y que nos hablan de la cercanía que nos une a, por ejemplo, los caballos.

Me doy cuenta de que estos argumentos míos son, en este punto, poco científicos, pero, lo repito una vez mas: no doy la espalda a encontrar en los resultados de la investigación científica algún que otro apoyo para causas morales.

EUGENESIA: Movimiento iniciado en las últimas décadas del siglo XIX, que sostenía que la mayoría de las características humanas eran estrictamente hereditarias y que había que mejorar la especie humana, favoreciendo la reproducción de los mejores especimenes y dificultando la de aquellos con deficiencias.

Los eugenesistas mantenían que no sólo los rasgos físicos, como el color de los ojos y la altura, sino también los atributos de la personalidad estaban determinados genéticamente (en un sentido mendeliano) y que para elevar el nivel de la población había que proceder poco más o menos como los ganaderos: favorecer la reproducción de los «buenos» sujetos y aminorar, o incluso detener, la reproducción de los «malos». A finales del siglo XIX y comienzos del XX, ayudado por la credibilidad que le otorgaba una presunta base científica, el programa eugenésico se extendió ampliamente, en especial en Estados Unidos y en algunos países de Europa.

Fue en Estados Unidos donde la fe en la genética mendeliana aplicada a los seres humanos se llevó a la práctica por vez primera: en 1907 el estado de Indiana aprobó las primeras leyes. que permitían la esterilización de los enfermos mentales y criminales patológicos; a finales de la década de 1929 veintiocho estados y una provincia canadiense habían introducido legislaciones parecidas.

Detrás de las ideas eugenésicas, se encuentra la convicción de que la vida humana puede reducirse a la biología y que las instituciones humanas se conducirán mejor teniendo en cuenta las «realidades» del determinismo biológico.

Ahora bien, semejante idea es cuestionable, y ello independientemente de que el punto de partida científico sea correcto o no (ya señalaba esto a propósito del determinismo biológico), de que, por ejemplo, las ideas eugenésicas hubieran resultado ser correctas desde el punto de vista científico. El problema es que el universo en el que se mueven los seres humanos no coincide exacta, ni siquiera necesariamente, con el universo del conocimiento científico. Aldous Huxley (1894-1963) expresó de manera magnífica tal diferencia cuando escribió:

El mundo al que se refiere la literatura es el mundo en el que los hombres son engendrados, en el que viven y en el que, al fin, mueren. El mundo en el que aman y odian, en el que triunfan o se los humilla, en el que se desesperan o dan vuelos a sus esperanzas. El mundo de las penas y las alegrías, de la locura y del sentido común, de la estupidez, la hipocresía y la sabiduría. El mundo de toda suerte de presión social y de pulsión individual, de la discordia entre la pasión y la razón, del instinto y de las convenciones, del lenguaje común y de los sentimientos y sensaciones para los que no tenemos palabras… [Por el contrario], el químico, el físico, el fisiólogo son habitantes de un mundo radicalmente diverso —no del mundo de los fenómenos dados, sino de un mundo de estructuras averiguadas y extremadamente sutiles; no del mundo experiencial y de los fenómenos únicos y de las propiedades múltiples, sino del mundo de las regularidades cuantificadas

Fuente Consultada: Diccionario de la Ciencia Jose M. Sanchez Ron

Nanociencia Nanotecnologia Que es la Nanociencia? Aplicaciones de la

Nanociencia Nanotecnologia ¿Qué es la Nanociencia?

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”. La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas. Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES: E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: «Hay mucho lugar allá abajo» y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un «nanómetro», o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas. El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa. (Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos. Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa? ¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas? ¿O un “acero” tan liviano como el plástico y un interruptor sin cable? ¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm). Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información. Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

El significado de la «nano» es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro. También: 1 milímetro = 1.000.000 manómetros. Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de «ver» y «tocar» a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de «ver» átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble. Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material. Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

La palabra «nanotecnología» es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas «nanos» que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO
Pero esta revolución plantea una cantidad infinita de preguntas. Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos. Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores. A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central. Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas. Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO
El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia. A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento. La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano. Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados. Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera: El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales. Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales. El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada. Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer: Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes. La prueba más reciente puede detectar concentraciones mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande. En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO: Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero. «Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías», asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina. «En unos años, veremos pantallas de este material en todas partes.»

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles. También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz. Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos. Y hay más: «el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015″.

LOS FULLERENOS, Historia
Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamante -sustancia de gran dureza que no conduce la electricidad- y de grafito -material bastante blando y buen conductor de la electricidad- Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial. Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos.

Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno. Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado.

En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos. ¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química. Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura. Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.
Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA: Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: «A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo».

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra «nanotecnología» en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:
> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

Bomba Atomica Perdida Accidente Aereo Pierde Una Bomba Atomica

La Bomba Atómica Perdida

BOMBA ATÓMICA PERDIDA: A primera hora de la mañana del 5 de febrero de 1958, un bombardero B-47 despegó de la base de las Fuerzas Aéreas de Homestead, Florida, llevando una bomba termonuclear Mark 215, de tres toneladas y media, con más de dos toneladas de explosivo convencional, una cabeza nuclear de uranio y una cápsula nuclear extraíble consistente en un detonador de plutonio.

Esta bomba era cien veces mas potente que la que las USAAF lanzaron sobre Hiroshima trece años antes; era capaz de exterminar inmensas áreas del este de América y provocar un tsunami que habría llegado hasta Nueva York.

No mucho después de despegar, a las 3.30 de la madrugada, el bombardero colisionó con un F-86 cuyo piloto saltó antes de que los aviones chocaran. La tripulación del bombardero trató de controlar el B-47, aunque éste había sufrido serios daños y había fuego en su interior.

El avión fue a aterrizar directamente al campo de aviaciónHunter Army, en las afueras de Savannah, a poco más de dieciséis kilómetros. Alcanzó la pista, pero un fallo mecánico impidió que pudiera reducir la velocidad para efectuar un aterrizaje seguro.

Entonces, se le ordenó que se alzara de nuevo y que se deshiciera de la carga explosiva a unos dos kilómetros y medio más allá, en una zona donde no peligraran vidas humanas, para después volver a la base e intentar aterrizar de nuevo. La tripulación obedeció las órdenes y lanzó los dispositivos cerca de la desembocadura del río Savannah.

El incidente puso a Washington en un enorme aprieto, pues el Pentágono quería evitar la consiguiente consternación pública resultante del hecho de que hubieran soltado una bomba nuclear en territorio propio.

Tras el silencio inicial del Departamento de Defensa estadounidense, que duró unos cuantos días, el comunicado decía que se había arrojado en una zona «una porción de arma nuclear», pero que no había riesgo para la población porque el arma estaba «descargada».

De todos modos, cuando las cosas se calmaron, e independientemente de si la bomba estaba o no cargada, resultó imposible recuperarla.

Hasta nuestros días el Pentágono sigue afirmando que no hay problemas porque el artefacto está desactivado, pero algunos soldados encargados de cargar la bomba al avión relataron todo lo contrario, frente a la negación de las autoridades militares. Hasta el misterio continua, y la bomba sigue extraviada.

https://historiaybiografias.com/linea_divisoria5.jpg

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española, «es una mezcla de cosas de distinto origen o tipo», y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas ,pero interesantes como para ampliar nuestra cultura general.

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik
El Jardín de Newton – José M. Sánchez Ron
Lo Que Oculta La Historia – Ed Rayner y Ron Stapley

Experimentos de la CIA con LSD Objetivos Proyecto MK Ultra

Experimentos de la CIA con LSD
Objetivos Proyecto MK Ultra

Experimentos de la CIA y el LSD (alucinógeno: acido lisérgico): MkUltra era el nombre en clave de una operación a gran escala organizada por el Equipo de Servicios Técnicos de la CIA (TSS) con el propósito de llevar a cabo investigaciones sobre la alteración del comportamiento humano, especialmente a través del empleo del LSD y utilizando a civiles inocentes como sujetos experimentales.

“Mk” era el prefijo genérico que tenían todas las operaciones de control mental (mind control) y “Ultra” provenía de la red de inteligencia organizada por los estadounidenses en la Europa dominada por el III Reich, una batallita de la que los veteranos agentes de la recién creada CIA se encontraban especialmente orgullosos.

proyecto mk ultra

El padre del proyecto fue Richard Helms, quien más tarde se convertiría en director de la agencia y que adquirió posteriormente cierta relevancia en relación con el escándalo Watergate. Entre 1953 y 1964 MkUltra (desde esa fecha hasta 1973 el programa continuó bajo el nombre de MkSearch) cometió algunas de las peores atrocidades y más flagrantes violaciones de los derechos humanos de la historia de Estados Unidos.

De hecho, muchos de los experimentos llevados a cabo en el marco de este proyecto diferían muy poco de los ejecutados por los médicos nazis en los campos de exterminio; es más, algunos fueron llevados a cabo por médicos que habían prestado sus “servicios” en campos como Dachau y cuyos conocimientos, especialmente interesantes para las autoridades estadounidenses en los tiempos de la Guerra Fría, les habían valido para escaparse por la puerta de atrás de la acción de los tribunales de Nuremberg.

La Agencia Central de Inteligencia tenía buenas razones para interesarse por el empleo del LSD como agente modificador del comportamiento. Una era utilizarlo, contraviniendo la convención de Ginebra, en la obtención de información de prisioneros de guerra o de agentes secretos enemigos. Otra, determinar el posible empleo del ácido lisérgico como arma de guerra química.

Existía una tercera aplicación del LSD que atraía sobremanera al sector más visionario del TSS: utilizarlo como herramienta de perturbación social en países enemigos, bien popularizando su uso como estupefaciente o bien introduciéndolo subrepticiamente en la red del suministro de agua.

En los años sesenta, según demuestran documentos secretos recientemente desclasificados en Estados Unidos, la CIA llegó a considerar seriamente la posibilidad de emplear este tipo de estrategias contra el régimen de Fidel Castro y, lo que resulta más sorprendente aun, para el control de la propia población de Estados Unidos.

En este entorno, la experimentación con sujetos no avisados era fundamental, ya que el TSS necesitaba, previamente a poder llevar a cabo estos planes, obtener datos de los efectos de la droga en situaciones de la vida real.

Un paradigma de los extremos a los que se llegó lo constituye un memorando interno de la CIA, fechado el 15 de diciembre de 1954, que recoge la propuesta del 155 de introducir cierta cantidad de LSD en el ponche que se serviría en la fiesta de Navidad que la agencia daba anualmente a sus empleados, es decir, se realizaban experimentos con el propio personal.

Droga: Efectos del LSD

https://historiaybiografias.com/linea_divisoria5.jpg

miselaneas de la historia

Miscelánea: según la definición del diccionario de la lengua española, «es una mezcla de cosas de distinto origen o tipo», y justamente este concepto es el que se aplica hoy esta página, en donde podrá encontrar explicaciones de los mas variados e inconexos temas ,pero interesantes como para ampliar nuestra cultura general.

Fuente Consultadas:
Secretos y Misterios de la Historia – Rearder’s Digest
Enciclopedia del Estudiantes – Tomos 12 y 20 Santillana
Los Santos Que Nos Protegen Ángel Bornos-Eva Prim
COSMOS – Carl Sagan
El Espacio Asombroso – Ann Jeanette Campbell
20 Grandes Conspiraciones de la Historia – Santiago Camacho
Revista Muy Interesante La Vida en la Edad Media (Edición Especial Nº 5)
Historia del Mundo -Serie Para Dummies
Actual Historia del Mundo Contemporáneo- Vicens Vives
Almanaque Mundial 2008 -Televisa
El Prójimo – Pacho O’Donnell
La Revolución de las Ideas de – Roberto Cook

Abuelo…es verdad? de Luis Melnik

Microscopio Forma de Uso Manejo Nombre de las Partes Instrucciones

Microscopio: Forma de Uso, Partes, Instrucciones

Este aparato nos permite ver los objetos con 100 o 200 aumentos más que la lente, pero su empleo no resulta nada sencillo. En una palabra: enseña más que aquélla, pero es también mucho más exigente. Aun para realizar con él las operaciones menos complicadas, es necesario poseer un auténtico «laboratorio» en miniatura.

Además, el nuevo instrumento es poco manejable y no puede llevarse encima durante las excursiones por el campo. Esto significa que el microscopio, a pesar de ser más potente y perfecto, nunca sustituirá por completo a nuestra vieja, fiel y manejable amiga, la lente, que continuará a nuestro lado y nos será de gran utilidad para echar un primer vistazo de «tanteo» al material que luego examinaremos más cuidadosamente en el «laboratorio».

EL MICROSCOPIO
Para la observación de la célula y de los tejidos, es imprescindible el uso del microscopio, ya que en su gran mayoría las células no son visibles a simple vista porque miden micrones (1 micrón = milésima parte de un milímetro). Este aparato, insustituible en cualquier investigación científica, fue ideado y construido en el siglo XVII por el holandés Antón van Leeuwenhoek (1632-1723), siendo constantemente perfeccionado por su continua utilidad, hasta llegar al poderoso microscopio electrónico que hoy se utiliza.

Microscopio Forma de Uso Manejo


La construcción de este aparato está basada en un fenómeno físico que es la refracción de la luz. Consta de dos partes: una mecánica y otra óptica.

Parte mecánica
Está formada por un pie o soporte, que sirve para la estabilidad del aparato; por la platina, que es una pieza movible por dos tornillos laterales, donde se coloca la preparación microscópica, que se fija mediante dos pinzas o resortes y que posee un orificio circular en el centro por donde pasa la luz que ilumina la preparación; y por el brazo o columna, que es articulado y sirve para inclinar el microscopio o para trasportarlo.

Parte óptica:

Consta de dos partes principales (ocular y objetivo) y de partes accesorias (espejo, condensador, diafragma, tornillos micrométricos y tornillos micrométricos).

El ocular es el lugar por donde se mira y está formado por dos lentes ubicados en el extremo superior del tubo óptico.

El objetivo es también un sistema de lentes ubicado en el extremo inferior del tubo. Cada microscopio suele tener varios objetivos con lentes de distintos aumentos, que se disponen sobre una pieza giratoria llamada revólver.
Et espejo es móvil y está situado debajo de la platina, tiene una cara cóncava (que se utiliza si se trabaja con luz artificial) y una cara plana (que se utiliza si se trabaja con luz natural). Este espejo se adapta a la luz y la refleja hacia el objeto que se observa.

El diafragma, colocado entre la platina y el espejo, gradúa la cantidad de luz que ilumina el objeto.
El condensador es un lente que concentra la luz sobre el preparado.

Los tornillos micrométricos y micrométricos sirven para acercar o alejar el tubo óptico del preparado, para su perfecto enfoque. El primero es de movimientos más rápidos, y el segundo, más sensible, es de movimientos lentos.

EL LABORATORIO – Si deseamos trabajar de manera tranquila y eficaz, conviene que reservemos un rincón de la casa situado junto a una ventana (de ser posible no orientada al Norte) y cerca de un enchufe.

Para amueblar nuestro laboratorio de investigación necesitaremos una mesa muy estable, con la superficie de cristal (o cubierta, en caso contrario, por una o dos gruesas láminas de plástico), una silla o un taburete de cierta altura, una estantería, una lámpara eléctrica de mesa, protegida por una pantalla de cristal esmerilado, y un cubo de plástico o metal para los desechos.

LA ELECCIÓN DEL MICROSCOPIO – Es muy difícil dar consejos sobre el tipo de microscopio que conviene adquirir. Existen cientos de modelos, desde los que pueden comprarse por relativamente poco dinero, hasta los que cuestan enormes cantidades. El tipo más sencillo tiene un ocular y un objetivo; el más complejo, dos oculares (gracias a lo cual se puede mirar con los dos ojos al mismo tiempo), cinco o seis objetivos rápidamente intercambiables, un espejo para condensar la luz sobre el objeto, varios filtros de colores, un foco de luz incorporado y otros muchos adminículos.

Como regla general podemos afirmar que, sin necesidad de salimos de los límites de nuestras posibilidades económicas, siempre resulta preferible gastar un poco más de lo previsto y adquirir un instrumento de marca con un eficaz juego de lentes.

A igualdad de precio, es mejor comprar un buen microscopio usado que uno nuevo de peor calidad; a condición, naturalmente, de que el usado, sometido al examen de un óptico de confianza, no revele imperfecciones Mecánicas u ópticas que dificulten su empleo.

MANEJO DEL MICROSCOPIO
1° Se coloca la preparación sobre el orificio de la platina y se fija con los resortes.

2″ Se hace girar el espejo hasta que la luz incida sobre la preparación.

3° Se baja el tubo óptico por medio del tornillo macrométrico hasta que toque levemente la preparación.

4° Se mira por el ocular con el ojo izquierdo, tratando de mantener el ojo derecho abierto, y con el tornillo macrométrico se va subiendo poco a poco e! tubo óptico hasta que se observe la preparación lo más clara posible.

5° Con leves movimientos de! tornillo micrométrico se obtiene una imagen nítida del objeto.

OTROS ELEMENTOS NECESARIOS
Lupa. Es un lente de aumento más gruesa en el centro que en los bordes, montada sobre un pie o soporte, o sobre un aro provisto de un mango. Sirve para observar piezas pequeñas pero macroscópicas, es decir, visibles a simple vista, porque posee muy poco aumento.

Portaobjetos (Fig. B). Son laminillas rectangulares de vidrio, de 8 cm de largo por 2 cm de ancho, donde se colocan los preparados.

Cubreobjetos (Fig. C). Son laminillas cuadradas o circulares de vidrio muy delgado, que sirven para cubrir las preparaciones microscópicas.

Tipos de microscopios: Además del microscopio tradicional, que es el descrito anteriormente, existen otros dos más sofisticados que han ido evolucionando en las últimas décadas.

Si bien en los microscopios clásicos la imagen a observar se forma de una vez, en los métodos más modernos la imagen se va obteniendo punto a punto al hacer nadir un delgado haz del iluminante que va explorando poco a poco la preparación. Es lo que se denomina barrido o scanning. La señal que la preparación transmite o refleja se dirige a un detector que la convierte en imagen visible a través de un sistema de vídeo o televisión o, más modernamente, de ordenador. Ejemplos de estos microscopios son el de rayos X y el acústico. Ambos se describen brevemente a continuación.

El microscopio de rayos X se basa en el hecho de que al disminuidla longitud de onda de la radiación incidente aumenta el poder resolutivo del aparato. Existe, sin embargo, una dificultad, y es que la mayor parte de los materiales presentan para los rayos X un índice de refracción ligeramente inferior a la unidad, con lo cual no se puede en fabricar lentes convergentes capaces de focalizarlos.

La solución está en operar por reflexión y por difracción, pero para ello es necesario disponer de una fuente de rayos X lo más puntual, monocromática y intensa posible.

El microscopio acústico funciona como uno óptico pero con ondas ultra-acústicas (se llega a secuencias de 5 GHz). La venta de este equipo radica en que las ondas acústicas penetran fácilmente en materiales opacos a otras radiaciones; por ello es especialmente útil en microelectrónica, por ejemplo, para poder observar en profundidad circuitos electrónicos sin dañarlos. La información que proporciona este tipo de microscopios no la proporciona ningún otro aparato óptico.

ACTUALMENTE SIGLO XXI: En el transcurso del siglo XX, las técnicas microscópicas han evolucionado considerablemente: de la lupa usual, con menos de 10 aumentos, se ha pasado al microscopio de efecto túnel, que permite ver —o, mejor, «palpar»— los átomos (a la escala de la diez mil millonésima de metro), pasando por los microscopios ópticos, los mejores de los cuales no superan los 2.000 aumentos, y los microscopios electrónicos, con 500.000 aumentos.

Microscopio óptico. Consta de un objetivo y un ocular. El primero está formado por un conjunto de pequeñas lentes, de distancia focal muy corta, que da una imagen real aumentada de un pequeño objeto situado muy cerca del foco. El ocular, a menudo constituido por dos lentes convergentes, funciona como una lupa y da una imagen virtual aumentada de la imagen suministrada por el objetivo. La distancia del objetivo al ocular es invariable.

Microscopio electrónico. La imagen aumentada de un objetivo se obtiene utilizando su interacción con los electrones. Los trabajos de L. de Broglie demostraron que, al igual que la luz posee un carácter corpuscular, las partículas como los electrones pueden manifestar propiedades ondulatorias. La longitud de onda asociada a un haz de electrones es del mismo orden de magnitud que la de los rayos X. Además, dado que, a diferencia de estos últimos, los electrones poseen carga eléctrica, es posible desviarlos y focalizarlos por medio de «lentes» magnéticas o electrostáticas.

Microscopio de transmisión. Está formado por un cañón de electrones obtenidos ya sea calentando un filamento ya sea por medio de una fina punta metálica sometida a un campo eléctrico; una vez acelerados con uno o varios ánodos llevados a potenciales adecuados, los electrones atraviesan una serie de «lentes» formadas por electroimanes atravesados por un canal cuyo eje es el del microscopio.

Microscopio de emisión. Este instrumento existe en dos versiones. En la primera, el objeto, situado en el seno de un campo electrostático, recibe un haz de electrones, de iones o de fotones y emite electrones secundarios, que son acelerados. Un objetivo, llamado «de inmersión», da una imagen aumentada de la superficie del objeto. En la segunda versión (microscopiode barrido), se focaliza un fino pincel de electrones sobre una muestra. La corriente de electrones secundarios creada es recogida por un conjunto fotomultiplicador. Se pueden observar así, en un monitor, superficies biológicas, defectos superficiales de metales, etc.

Microscopio de efecto túnel. De micros copio sólo tiene el nombre, ya que su fundamento estriba en controlar, con una precisión de 10 nanómetros, la posición de una micro-sonda que se mueve por encima de la superficie estudiada. A distancias de este orden, los electrones pueden atravesar el intervalo entre la capa atómica superficial y la sonda, pero no pueden ascender desde la capa subyacente. Se obtiene así una imagen de la superficie del objeto a escala atómica.

UN POCO DE HISTORIA…

A finales del siglo XVIII, el diseño de los microscopios había avanzado tanto, que casi se alcanzaron los límites teóricos del poder separador utilizando luz visible.

Sin embargo, se han hecho otros inventos desde entonces. Por ejemplo, en la mayoría de los microscopios la imagen sólo se puede ver con un ojo. Ello está bien para períodos cortos de tiempo, pero es incómodo cuando el microscopio’ se utiliza constantemente. Ahora existen microscopios binoculares, en los que el camino de la luz está dividido de tal forma que la imagen se puede ver con los dos ojos. Otros microscopios proyectan la imagen sobre una pantalla, para que se pueda ver más fácilmente.

En la práctica, los microscopios luminosos son idóneos para la mayoría de los fines, aunque no cuando se quieren observar pequeños detalles. Se pueden lograr mejores resultados en el poder separador, utilizando radiaciones de menor longitud de onda, como en el moderno microscopio de luz ultravioleta. Como su nombre indica, este instrumento utiliza luz ultravioleta (que es similar a la luz visible, pero de menor longitud de onda).

El cristal de las lentes utilizadas con luz visible no es el adecuado para la luz ultravioleta, que no pasaría por ellas. Se las reemplaza por lentes de cristal de cuarzo. Como la luz ultravioleta es invisible, se utilizan dispositivos «especiales para hacer la imagen visible. La imagen se enfoca sobre una pantalla fluorescente, que reluce cuando recibe la radiación.

El microscopio de luz ultravioleta supuso un gran adelanto sobre los anteriores, pero ha sido mejorado por el microscopio electrónico, que es el instrumento más moderno y avanzado, y de mayor poder separador, actualmente en uso. El obstáculo, en este caso, radica en que, aunque en principio es un instrumento muy simple, en la práctica constituye un equipo extremadamente complicado, lo que hace que su precio sea muy elevado. Los microscopios comunes tienen un precio más económico.

Fue posible realizar el microscopio electrónico luego de la invención del tubo de rayos catódicos, a principios del siglo XX. El tubo de rayos catódicos es un tubo revestido con material fluorescente en uno de sus extremos, que constituye la pantalla. En el otro extremo, se encuentra el cátodo, al que se calienta para que libere electrones. Frente al cátodo se encuentra el ánodo. Los electrones surgen del cátodo por la diferencia de potencial entre él y el ánodo. Se aceleran en el espacio entre cátodo y ánodo, y pasan a través de un orificio del ánodo para incidir sobre la pantalla. Un objeto colocado a su paso motiva una sombra sobre la pantalla.

Estos electrones se comportan como si constituyesen un tipo de radiación de longitud de onda muy pequeña y, en consecuencia, se pueden utilizar para obtener grandes aumentos (es decir, con gran poder separador).

El sistema de lentes es parecido al que se utiliza en el microscopio compuesto de luz visible. Los electrones pueden ser desviados de su camino por campos magnéticos. Lentes magnéticas circulares se utilizan para enfocar los haces de electrones, de la misma forma que se emplean las lentes de cristal para enfocar los rayos de luz. Las muestras utilizadas se colocan sobre láminas muy delgadas. Las partes opacas de la muestra proyectan sombra sobre la pantalla o sobre una película fotográfica, con lo que se obtiene la denominada micrografía electrónica. Muchos microscopios electrónicos aumentan los objetos más de 200.000 veces.

Es posible mejorar el poder separador o resolutivo del microscopio electrónico, utilizando electrones de movimiento más rápido y longitud de onda más pequeña. El perfeccionamiento del microscopio electrónico constituye aún materia de investigación. La mayoría de los microscopios luminosos y electrónicos hace pasar un haz de la radiación a través de un objeto, con lo que se puede observar su sombra.

En un nuevo tipo de microscopio, el microscopio de emisión de campo, se hace emitir al objeto su propia radiación: el objeto emite un flujo de electrones, que surgen de él, al aplicar un campo eléctrico muy elevado; tales electrones dan lugar a su imagen. Con esta técnica se pueden observar muchos más detalles. De hecho, se ha conseguido fotografiar grandes moléculas.

La Estructura del ADN Historia del Descubrimiento de Crick y Watson

La Estructura del ADN
Historia del Descubrimiento de Crick y Watson 

Un bioquímico británico y un biólogo estadounidense anuncian en 1953 un descubrimiento trascendental sobre ei material genético de los seres vivos. Su contribución es decisiva para la medicina, la biología molecular y la elaboración del genoma humano.

Francis Crick, nacido en Northampton, Inglaterra, el 8 de junio de 1916, y James Watson, en Chicago, Estados Unidos, el 6de abril de1928, descubrieron la estructura molecular del ácido desoxirribonucleico o ADN. Este descubrimiento causó un gran impacto en la comunidad científica internacional, pues se abría un enorme campo de investigación.

La transmisión de la herencia: A mediados del siglo XX, los científicos ya sabían que todos los seres vivos eran portadores de partículascon todos los datos déla herencia.

Estas partículas son los cromosomas. Después se supo que los cromosomas eran una especie de paquetes que contenían otras partículas más pequeñas, a las que se llamó genes.

Los genes están compuestos por una molécula conformada por el ADN, y las moléculas de ADN son como una «escalera de cuerda enrollada en espiral» o, lo que es lo mismo, como una doble hélice.

La reproducción de todas las formas de vida en la Tierra se basa en la capacidad del ADN para almacenar y transmitir información genética, es decir, la información de la herencia.

El estudio de esa doble hélice y de la disposición y manipulación de sus elementos es lo que ha llevado a los grandes avances de la genética hoy en día.

FRANCIS CRICK Y JAMES DEWEY WATSON:
PROYECTO GENOMA HUMANO
La cristalografía por rayos-X:
Francis Crick nació en Northampton, Inglaterra, en 1916. Estudió física en la Universidad de Londres, y trabajó con radares durante la Segunda Guerra Mundial.

En 1946 asistió a una conferencia de Linus Pauling que le abrió los ojos a las posibilidades de un descubrimiento original en biología molecular.

Esto lo llevó a realizar investigaciones de biología en Cambridge; en 1949, cuando tenía treinta y tres años, se sumó al Consejo de Investigaciones Médicas del Laboratorio Cavendish en la universidad.

cientificos que estudiaron la estructura del ADN

James Watson y Francis Crick junto a uno de sus modelos de la molécula del ADN en el Laboratorio Cavendish de Cambridge en 1953 / University of Cambridge

James Dewey (Jim) Watson nació en Chicago, en 1928, y era un niño prodigio. Entró en la Universidad de Chicago a los quince años y se graduó a los diecinueve; tres años después obtuvo un doctorado por la Universidad de Indiana.

Mientras preparaba el doctorado, leyó un libro del físico austriaco ErwinSchródinger titulado ¿Qué es la vida?, que lo persuadió de que el estudio de los genes ofrecía excitantes perspectivas de descubrimientos.

En 1951 asistió a una conferencia en Nápoles, donde conoció a Maurice Wilkins, un físico neozelandés de treinta y tres años nacido en las Islas Británicas, que había trabajado con la bomba atómica en Estados Unidos, pero que se había alejado de la física nuclear horrorizado por las consecuencias de ese trabajo.

Como Watson, Wilkins había sido inspirado por ¿Qué es la vida? de Schroidinger.

Trabajaba en la estructura de las moléculas orgánicas grandes, en el Consejo de Investigaciones Médicas del King’s College de la Universidad de Londres, usando la misma técnica del análisis de difracción por rayos-X que el equipo de Pauling en la CalTech.

La descripción que le hizo Wilkins de su trabajo reforzó el interés de Watson por el tema, y fue aceptado para realizar investigaciones en el Laboratorio de Cavendish. Llegó a Cambridge poco después de cumplir veintitrés años, y estableció inmediatamente una buena relación con Crick, que por entonces tenía treinta y cinco años.

Crick y Watson estaban dispuestos a investigar la estructura del ADN, pero sus superiores los desanimaron, ya que eran conscientes del trabajo que llevaban a cabo en el King’s College.

Se suponía que los trabajos del King’s eran un esfuerzo común de Wilkins y una química británica de treinta años llamada Rosalind Franklin, pero en realidad ambos estaban enfrascados en una lucha de personalidades. Franklin era una cristalógrafa muy experimentada.

La cristalografía era una tecnología exigente, basada en la técnica de difracción de los rayos X, esencial en la investigación de la estructura de las moléculas grandes.

Se trataba de una tecnología en la que ni Watson ni Crick tenían ninguna experiencia, así que hicieron lo mejor que pudieron con la única alternativa a su alcance, la construcción de modelos.

Pero sin las pistas que podía proporcionar la cristalografía, fueron incapaces de realizar progresos reales, y sólo era cuestión de tiempo que el equipo de Pauling, en la CalTech, que dominaba ambas técnicas, diera con la respuesta correcta.

El libro de Pauling, La naturaleza del enlace químico, se convirtió en la Biblia de Watson en sus esfuerzos por construir un modelo plausible, y para mayor frustración, tanto el director del Laboratorio de Cavendish, Lawrence Bragg, como el director de la Unidad de Cristalografía, Max Perutz, eran cristalógrafos expertos.

Pero insistieron en que la buena voluntad del Consejo de Investigaciones Médicas no debía correr el riesgo de duplicar la investigación del King’s College.

No era cuestión de determinar la composición química de la molécula de ADN. Por entonces se sabía que estaba compuesta por una serie de bases de cuatro clases: timina (T), guanina (G), citosina (C) y adenina (A), unidas por parejas en una estructura de fosfato-azúcar.

Pero nadie sabía cuál era la forma de la estructura ni cómo se unían las parejas de bases.

Sin las respuestas a estas preguntas, no se podía comprender realmente el mecanismo detallado de la herencia y no existía ninguna posibilidad de aplicar el conocimiento teórico a los problemas de la vida común como las enfermedades hereditarias.

Irónicamente, el descubrimiento definitivo llegó poco después de que Crick y Watson asistieran a un seminario en el que parecieron malinterpretar la presentación que Franklin hizo de su investigación.

Volvieron a Cambridge, construyeron un modelo e invitaron a la pareja de Londres para que lo viera.., pero Franklin echó por tierra todas sus ideas. No mucho después, con la ayuda de Wilkins, Watson consiguió ver una de las cristalografías por rayos-X de Franklin con una claridad increíble. En cuanto la vio, estuvo seguro de que sabía cómo interpretarla.

De vuelta a Gambridge, Crick y él consiguieron permiso para utilizar los servicios del taller del laboratorio para construir un modelo de la molécula a gran escala.

Tras cinco semanas frenéticas de prueba y error, el modelo estaba listo para ser revelado.

Tenía forma de doble hélice, una larga y tortuosa escalera en la que los peldaños eran innumerables secuencias de pares de bases: lA, CG, AT, TA, CC, etc.

la doble hélice

El descubrimiento de la estructura del ADN permitió saber que el mensaje genético puede modificarse. Estos cambios en el mensaje son el origen de muchas enfermedades, pero también están relacionados con la capacidad de adaptación de los seres vivos. Gracias a este conocimiento, la medicina ha encontrado la manera de evitar el desarrollo de algunas enfermedades hereditarias.

La Estructura del ADN y los Genes:

Los rasgos principales de una molécula de ADN son:

a. Una «escalera en espiral», con barandillas de azúcar-fosfato formando una doble hélice.

b. Una larga sucesión de «escalones», hecha a base de parejas entrelazadas de bases de adenina (A) y timina (T), o guamina (G) y citosina (C).

1. Un «gen» normalmente tiene una longitud de varios miles de bases.

2. La secuencie de bases en os genes codifica a información necesaria para fabricar las proteínas que determinan la anatomía y la fisiología de toda criatura viviente.

3. Los genes están localizados en los cromosomas, que son largas hileras de proteína y ADN mezclados.

4. En la reproducción sexual, la secuencia de genes del óvulo fertilizado es diferente de la de los padres, haciendo que todos los individuos descendientes sean únicos.

5. En gemelos idénticos, la secuencie genética es diferente de la de los padres pero idéntica en cada hermano, porque son el resultado del fraccionamiento de un óvulo fertilizado.

6. Cuando las células se dividen y se multiplican durante el crecimiento del embrión, las parejas de bases se abren como una cremallera. Cada mitad de una pareja de bases tiene la habilidad de hacer «crecer» una nueva compañera en su nuevo hogar, asegurando así que la «información» de cada célula es la misma.

El 7 de marzo de 1953 se la enseñaron a sus colegas. El 25 de abril, un corto y modesto escrito en la revista Nature, titulado La estructura molecular de los ácidos nucleicos, informó al mundo de uno de los descubrimientos más significativos en la historia de la ciencia, aunque quedó un poco ensombrecido por la primera ascensión al Everest seis semanas después. Pero su importancia pronto quedó establecida y dio origen a una explosión de investigaciones genéticas y de descubrimientos que todavía continúa.

En 1962, Crick, Watson y Wilkins compartieron el Premio Nobel de Medicina. El nombre de Rosalind Franklin no fue mencionado, había muerto de cáncer en 1958, a los treinta y siete años, víctima —como Marie Curie— de la radiación a la que se había expuesto durante su trabajo. No se conceden premios Nobel a título póstumo. (PROYECTO GENOMA HUMANO)

Publicación del Descubrimiento de Watson y Crick en la Revista NTURE

Publicación del Descubrimiento de Watson y Crick en la Revista NATURE

PARA SABER MAS…
En sus comienzos, la genética fue totalmente ignorada; hoy, es al contrario. Mendel no recibió atención alguna, porque su trabajo no parecía importante; sin embargo, en la actualidad los genes están por todas partes, nos fascinan sus promesas y nos inquietan sus amenazas. Los genetistas han hecho hincapié rápidamente tanto en unas como en otras. Por algo se ha dicho que las cuatro letras del código genético están en boca de todo el mundo.

Los avances de las últimas décadas han sido sorprendentes. Disponemos de la secuencia completa del ADN que compone los 60.000 genes activos necesarios para formar un ser humano y pronto tendremos la de todo el llamado ADN «basura» (que quizá revele más cosas de lo que su nombre indica). 10.000 enfermedades distintas poseen un componente hereditario y, en principio, sabemos por lo menos los genes que están implicados.

Esto suscita tanto esperanzas como temores. En el caso de las enfermedades controladas por un gen, como la anemia de células falciformes o la fibrosis quística, resulta más fácil identificar los portadores y los fetos en situación de riesgo. Como es posible dañar un gen de muchas maneras (hay más de 1.000 mutaciones conocidas responsables de la fibrosis quística), las pruebas no son sencillas y la mejor solución es decir a los afectados que son portadores, más que tranquilizarles diciéndoles que no lo son. Con todo, la decisión de quedarse embarazada o continuar con el embarazo será algo más fácil cuando las pruebas resulten menos ambiguas.

Es posible adquirir en el mercado pruebas para detectar los genes que predisponen a padecer fibrosis quística y cáncer de mama; y el desarrollo de «chips» de ADN capaces de examinar muchos genes de forma simultánea indica que pronto se venderán más. La medicina tendrá que tratar cada vez más casos de personas que, de forma acertada o no, han recibido el diagnóstico de estar en situación de riesgo.

Ahora somos conscientes de que mucha gente fallece por culpa de enfermedades genéticas o con un componente genético. En algunos casos, será posible comunicarles su grave situación; pero ¿por qué querríamos hacerlo? A veces, la información resulta útil. Quienes hereden una predisposición a determinadas formas de cáncer de colon, por ejemplo, pueden recibir la ayuda de la cirugía mucho antes de que se manifieste la enfermedad.

En el caso de otras enfermedades, es posible advertir a personas en situación de alto riesgo de que eviten ambientes peligrosos para ellos. Fumar es peligroso, pero pocos fumadores logran dejarlo. No obstante, cualquier persona portadora de una forma alterada de una enzima responsable de fluidificar la mucosidad de los pulmones se ahogaría en sus propios esputos si fumara; lo que podría convencerla de que no lo hiciera. El conocimiento también puede resultar peligroso, sobre todo cuando están implicados los seguros médicos.

El tipo de medicina con más éxito siempre ha sido la prevención en lugar de la curación. La genética no es distinta y la posibilidad de que la terapia génica sustituya el ADN dañado a la vuelta de la esquina, como los últimos diez años. La cirugía genética (la capacidad de cortar fragmentos de ADN y colocarlos a sitios nuevos) ha conseguido avances notables, pero hasta el momento no ha hecho mucho para curar enfermedades.

A pesar de todo, es posible que ayude a impedir que la población mundial muera de hambre, por lo menos ésa es la opinión de los entusiastas de los alimentos transgénicos. Puede que tengan razón. Ha resultado increíblemente sencillo mover genes vegetales de un sitio a otro. Ya existen cultivos que han sido modificados para conferirles resistencia a parásitos o a herbicidas artificiales (lo que implica la posibilidad de fumigar el campo sin que la cosecha salga perjudicada).

El optimismo comercial en Europa, si no en Estados Unidos, ha coincidido con la preocupación de la opinión pública sobre los riesgos que esos alimentos suponen para la salud. Que la gente se preocupe por el remoto riesgo de que los alimentos transgénicos sean perjudiciales para la salud cuando está dispuesta a consumir hamburguesas con queso que, decididamente, sí suponen un riesgo, es algo que deja perplejos a los científicos, pero la ciencia no es tan importante como aquello que los consumidores están dispuestos a aceptar. A menos que se produzca un cambio de actitud, es poco probable que se cumpla la esperanza de introducir genes de nutrientes esenciales en los cultivos del Tercer Mundo.

Ver: Historia del Descubrimiento de las Vitaminas y Propiedades

Ver: Historia de la Anestesia

Ver: Historia de las Cirugias

Fuente Consultada:
Historias Curiosas de la Ciencia de Ciril Aydon
GENÉTICA Para Todos Jones-Van Loon
El Jardín de Newton de José Manuel Sánchez Ron

El ADN:Genes y Cromosomas Objetivos del Proyecto Genoma Humano

Concepto de ADN:Genes y Cromosomas
Objetivos del Proyecto Genoma Humano 

La genética estudia los genes y la herencia. Dentro de las células, los cromosomas portan los genes o «instrucciones» que determinan todos los aspectos de un organismo. Los cromosomas son moléculas largas de ADN o ácido desoxirribonudeico. En el 2000, los científicos presentaron el «borrador» del proyecto genoma humano, la secuencia de miles de ácidos nucleicos individuales que forman una molécula de ADN. La decodificación del genoma podría favorecer los tratamientos para enfermedades hereditarias.

El genoma es el juego completo de información genética (hereditaria) almacenada en cada una de las células de un organismo: el ADN.  Además de los códigos que hacen funcionar el cuerpo, el ADN porta las variaciones genéticas que activan disfunciones y enfermedades. La comprensión del ADN proporcionó la clave de la herencia, y la descodificación de su código genético abrió el camino hasta el genoma.

Prácticamente todas las células del cuerpo humano contienen hasta 2,5 metros de ADN empaquetado en núcleos de 5 um (micrones) de diámetro. Los cromosomas empaquetan este ADN de una forma altamente especializada. Durante gran parte de la vida de la célula, su material genético está diluido y no puede verse; sin embargo, justo antes de la división celular  los cromosomas se duplican y son más fáciles de observar.

El descubrimiento de la estructura del ADN  y la identificación del código genético que transporta, supusieron un gran salto para la genética: por primera vez los científicos podían mirar más allá de la estructura de los cromosomas, es decir, a las instrucciones moleculares que contienen.

En el año 1972 se alcanzó un nuevo hito cuando se identificó la secuencia de los pares de bases que codifican un único gen vírico. El primer genoma basado en el ADN, el del virus bacteriófago phi-X174, fue secuenciado en 1977. Los científicos habían traspasado la línea que separa los genomas víricos simples de los más complejos basados en el ADN de los seres vivos.

Ideas Fundamentales de la Genética

* La genética estudia la transmisión de los caracteres de una generación a otra.

* El ADN contiene toda la información de las características de los individuos.

* La apariencia física es producto del genotipo.

* Las mutaciones son cambios azarosos en el ADN, debidas a factores como los virus, los químicos, las radiaciones, entre otros. Estas mutaciones pueden ocasionar enfermedades o la muerte.

* Las mutaciones han sido la materia prima en la evolución de la vida.

Ver: Genética

Concepto Básico de ADN, Cromosomas y Genes:

El núcleo de una célula cualquiera es el «centro de comando» de los procesos que desarrolla, ya que el ADN que contiene regula la formación, el crecimiento, el funcionamiento y la reproducción celular. El ADN es la macromolécula portadora de la información genética.

Esta información se halla en los segmentos de ADN denominados genes. Cada gen es una pequeña porción de secuencias de bases del ADN que codifica a una proteína específica. En la célula, las hebras de ADN están enmarañadas y se tiñen fácilmente con colorantes, lo que facilita su observación con el microscopio electrónico.

En este estado, el ADN recibe el nombre de cromatina (del griego cromo: color), y lleva a cabo las siguientes funciones:

■ controla su autoduplicación o replicación, por la cual se obtienen copias idénticas del ADN «madre», que luego se repartirán equitativamente en las células hijas;

■ controla la síntesis de los ARN que intervienen en la síntesis de proteínas.

Una vez que se ha producido la replicación, los filamentos de cromatina se condensan en estructuras compactas llamadas cromosomas (del griego cromo: color; soma: cuerpo).

Cada cromosoma está compuesto por una hebra espiralizada de ADN unido a proteínas específicas -las historias- y formado por dos brazos idénticos llamados cromátidas hermanas. Las cromátidas hermanas se unen por medio del centrómero.

Como decíamos antes el ADN, la macromolécula que contiene, en forma químicamente codificada, toda la información necesaria para construir, controlar y mantener un organismo vivo. Aunque el ADN fue identificado como sustancia transmisora de la herencia en 1944 por Oswald Avery (1877-1955), Colin Macleod (1909-1972) y Maclyn McCarthy (1911), su estructura geométrica fue descubierta en 1953 por James Watson (1928) y Francis Crick (1916-2004).

Oswald Avery Colin MacleodMaclyn McCarthy
Oswald Avery (1877-1955)Colin Macleod (1909-1972)Maclyn McCarthy (1911)

El núcleo de cada célula contiene el genoma que está conformado por 24 pares de cromosomas, los que a su vez contienen alrededor de 80.000 a 100.000 genes, los que están formados por 3 billones de pares de bases, cuya secuencia hace la diferencia entre los organismos.

Se localiza en el núcleo de las células. Consiste en hebras de ADN estrechamente arrolladas y moléculas de proteína asociadas, organizadas en estructuras llamadas cromosomas. Si desenrollamos las hebras y las adosamos medirían mas de 150 cm. , sin embargo su ancho sería ínfimo, cerca de 50 trillonesimos de pulgada.

El ADN que conforma el genoma, contiene toda la información necesaria para construir y mantener la vida desde una simple bacteria hasta el organismo humano. Comprender como el ADN realiza la función requiere de conocimiento de su estructura y organización.

La molécula de ADN conta de dos hebras arrolladas helicoidalmente, una alrededor de la otra como escaleras que giran sobre un eje, cuyos lados hechos de azúcar y moléculas de fosfato se conectan por uniones de nitrógeno llamadas bases.

Cada hebra es un acomodamiento linear de unidades similares repetidas llamadas nucleótidos, los que se componen de un azúcar, un fosfato y una base nitrogenada. Cuatro bases diferentes están presentes en la molécula de ADN y son:

· Adenina (A)

· Timina (T)

· Citosina (C)

· Guanina (G)

El orden particular de las mismas es llamada: secuencia de ADN , la cual especifica la exacta instrucción genética requerida para crear un organismo particular con características que le son propias. La adenina y la guanina son bases púricas, en cambio la citosina y la timina son bases pirimidínicas.

adn proyecto genoma

El ADN está constituido por dos cadenas,  cada una de las cuales formada por cuatro compuestos químicos, combinaciones de carbono, nitrógeno, oxígeno, hidrógeno y fósforo, denominados adenina (A), guanina (G), citosina (C) y timina (T).

Los cuatro tienen un comportamiento de álcalis o «bases» (lo contrario de ácidos). La estructura de la cadena es muy sencilla: lo que se puede considerar como su «esqueleto» está formado por una alternancia regular de ácido fosfórico (P) y un azúcar, la desoxirribosa (D); esto es:

P-D-P-D-P-D-P-D-…

Sobre este esqueleto, se superponen las cuatro bases mencionadas antes, pero de forma que a cada azúcar D va unida una base, A, C, G o T, formando una secuencia determinada (al conjunto de P, D y una base se le llama «nucleótido»); el ácido fosfórico es algo así como un eslabón de esta singular cadena, que tiene forma espiral de hélice, la famosa «doble hélice».

El ADN surge cuando se unen dos cadenas de este tipo, mediante el procedimiento de establecer uniones entre parejas de bases, pero sólo de manera que la T de una cadena se asocie a la A de la otra y la G a la C.

Cualquier otro emparejamiento está prohibido.

Con la excepción de las bacterias, el ADN aparece en forma de filamentos muy largos en los cromosomas, las unidades que se encuentran en los núcleos de todas las células de un individuo y gracias a las cuales los caracteres biológicos se transmiten de padres a hijos (el número de cromosomas varía entre uno, en las bacterias, y docenas o incluso cientos en los organismos superiores; en los seres humanos hay 23 pares).

Si pudiésemos extender el ADN de una célula humana, formaríamos un hilo de unos tres metros de longitud.

Y si se tiene en cuenta el número de células que poseemos, todo el ADN de una persona formaría un hilo de una longitud más de veinte veces la distancia que separa al Sol de la Tierra.

El «genoma» (conjunto de instrucciones —o de genes— que permiten construir un organismo) humano se encuentra en esos gigantescos hilos, y consta de unos tres mil millones de pares de bases.

CONCEPTO DE GEN: Neologismo introducido por Wihelm Juhannsen (1857-1927) en 1909 para designar las unidades de material heredado (o de transmisión genética). Proviene del griego génesis (generación). Situado, en los organismos superiores, en los cromosomas, un gen es una secuencia de pares de bases a los largo de un trozo de ADN , que tiene una función especifica conocida.

Los genes son ,en consecuencia, tiras de nucleótidos separadas entre si por otras tiras de ADN, denominadas también «secuencias intervinientes» o «intrones». José Sanmartín ha señalado, pertinentemente, que estas secuencias son como los espacios publicitarios de las películas de televisión, pero que mientras que sabemos cuál es la función de la publicidad, ignoramos todavía para qué valen realmente los intrones.

En los seres humanos existen unos 30.000 genes diferentes, cada uno agrupando entre 2.000 y 2.000.000 de pares de nucleótidos. Pequeños cambios (mutaciones) en la estructura química de los genes pueden tener consecuencias muy importantes. Como la anemia falciforme, una enfermedad hereditaria bastante frecuente.

Los hematíes de las personas con este tipo de genes sufren grandes alteraciones de formas cuando se exponen a bajas concentraciones de oxígeno.

Como consecuencia, a los hematíes les es entonces muy difícil pasar a través de los capilares sanguíneos, con el resultado de grandes dolores e incluso la muerte (por razones evidentes, en las academias de las Fuerzas Aéreas de algunas naciones se efectúan exámenes genéticos para detectar esta anemia).

Se conocen más de cuatro mil defectos en los que un solo gen provoca trastornos en los seres humanos. Y la mayoría son letales, abundando, además, los casos en los que las víctimas son preferentemente niños.

Estos ejemplos y nociones, tan sencillos y elementales, sirven perfectamente para apreciar con claridad parte de la importancia de la genética y biología moleculares. Con ellas es posible plantear la tarea de identificar el defecto genético responsable de enfermedades (se estima que un recién nacido de cada trescientos es portador de una anomalía genética).

En 1986, por ejemplo, un equipo de investigadores norteamericanos identificó el defecto genético responsable de un tipo de distrofia muscular.

En 1989, un grupo de biólogos anunció el descubrimiento de la situación del gen que, cuando sale defectuoso, produce la fibrosis quística, una enfermedad que afecta a los pulmones, páncreas y otros órganos.

A partir de entonces, los avances en esta dirección son constantes. En 1993, por ejemplo, se localizó el gen de la Corea de Huntington, un trastorno que produce una degeneración progresiva del cerebro, que viene acompañada d la aparición de fuertes movimientos incontrolados y que  conduce, inevitablemente por el momento, a la muerte (habitualmente ataca a las personas de alrededor de 35 años.

De esta manera, será posible (es ya posible en bastante casos) al menos identificar a los padres que pueden transmitir el defecto, o hacer pruebas a la mórula —el primer esbozo del embrión para comprobar si el ser humano que surgirá de él será portador o no de la anomalía. Y no sólo eso: en algunos casos será factible también remediar lo que antes parecía irremediable, curar las enfermedades.

El primer paso en esta dirección se dio en septiembre de 1991, Cuando se practicó a una niña de cuatro años el primer trasplante genético.

La experiencia tuvo éxito.

https://historiaybiografias.com/linea_divisoria3.jpg

Objetivos del Proyecto Genoma Humano:

El denominado Proyecto Genoma Humano se inició en 1990 por un consorcio de instituciones de diferentes países para llegar a conocer la secuencia completa del ADN del ser humano. Pese a que en los planes iniciales no contemplaban la posibilidad de secuenciar el ADN del ser humano antes de 2003, en abril de 2000 se consiguió la y secuenciación de casi la totalidad del mismo.

Paralelamente, en septiembre de 1998, una empresa privada llamada Celera Genomics System había iniciado el mismo proyecto. Se estableció formalmente el denominado Proyecto Genoma Humano, liderado por Estados Unidos, para determinar la estructura de nuestro genoma.

El resultado final se anunció el 11 de febrero de 2001: tenemos unos 30.000 genes, poco más del doble de una mosca y menos que el arroz, según se comprobó más tarde. Ahora sabemos que desde el punto de vista genético no nos diferenciamos demasiado de los chimpancés, con los que compartimos el 97,7 por ciento del genoma, ni de los orangutanes (96,4 por ciento), resultados que, obviamente, reivindican a Darwin. Las diferencias cuantitativas son pequeñas, pero no así siempre las cualitativas.

Los objetivos del Proyecto Genoma son:

· Identificar los aproximadamente 100.000 genes humanos en el DNA.

· Determinar la secuencia de 3 billones de bases químicas que conforman el DNA.

· Acumular la información en bases de datos.

· Desarrollar de modo rápido y eficiente tecnologías de secuenciación.

· Desarrollar herramientas para análisis de datos.

· Dirigir las cuestiones éticas, legales y sociales que se derivan del proyecto.

Para llevar a cabo este trabajo es necesario poder manejar de manera eficaz los millones de pares de bases. La fragmentación del material genético en pequeños fragmentos de pocas kilobases (1 kilobase = 1.000 bases) se inició en los años ochenta, de forma que se empezaron a crear las llamadas librerías genómicas. Con ellas se realizan los mapas físicos o se puede establecer el orden de las secuencias en el cromosoma.

La técnica seguida en el proyecto es la siguiente: mediante las llamadas endonucleasas de restricción se va fragmentando el ADN y se van obteniendo el mapeado y la secuenciación de cada uno de estos fragmentos o clones que posteriormente  analizan y comparan entre sí para determinar cuáles de ellos presentan lugares de restricción iguales, lo que permite su ordenación según ese criterio.

Una vez se han seleccionado varios fragmentos o clones de un gen y se ha establecido su orden, se vuelven a seleccionar cada uno de estos clones para seguir fragmentándolos en trozos más pequeños que permitan leer su secuencia. Mediante estos trabajos en la li nulidad se conoce el 90% de la secuencia del genoma humano y se ha comprobado que está constituido por aproximadamente 31.000 genes y no por los 100.000 esperados inicialmente.

El genoma humano presenta algunas características que se han podido conocer gracias a estas investigaciones:

– Los genes no se distribuyen de manera homogénea a lo largo de los cromosomas. El cromosoma que presenta menor número de genes a lo largo de su estructura es el cromosoma que condiciona el sexo masculino o cromosoma Y.

– El genoma humano es aproximadamente 25 veces mayor que el de un gusano o una mosca. Gran cantidad del material que se ha secuenciado se denomina material basura, pues no contiene la información para la síntesis de proteínas.

– Los genes constituyen alrededor del 5% del genoma, evidentemente la parte más importante de éste. Cada uno de estos genes tiene capacidad para la síntesis de una, dos o más proteínas. La capacidad del genoma humano para la codificación de proteínas es, portante, enorme, aunque el número de genes sólo represente el doble de los existentes en la mosca del vinagre.

– Se han identificado 1.038 grupos de proteínas comunes con otras especies. Las diferencias en la fisiología de los vertebrados, y por tanto del ser humano, frente a otras especies, se basan únicamente en un 7% de proteínas específicas.

– Se han encontrado polimorfismos en la secuencia del genoma cada 1.300 bases.

Este proyecto ha suscitado análisis éticos, legales, sociales y humanos que han ido más allá de la investigación científica propiamente dicha. (Declaración sobre Dignidad y Genoma Humanos, UNESCO) El propósito inicial fue el de dotar al mundo de herramientas trascendentales e innovadoras para el tratamiento y prevención de enfermedades.

Básicamente, el objetivo principal de las terapias géneticas es aportar un gen normal para paliar la insuficiencia de un gen. De hecho, existen dos tipos de terapias génicas: la terapia génica somática, que no se transmite a la descendencia, y la terapia de células germinales que sí se transmite.

Esta última se aplica con cierta extensión en la actualidad a razones y animales de granja. Su utilización con la especie humana no es técnicamente imposible, pero podría conducir a prácticas eugénicas Y también está la donación de la que me ocupo en otro lugar de este diccionario. (ver Eugenesia)

Los avances en el conocimiento de la estructura de los genes afectan al universo de los comportamientos y valores sociales, éticos, de manera que no es deseable limitar el tratamiento de las cuestiones que se refieren a la genética, biología molecular o ingeniería genética a aspectos puramente científicos o tecnológicos.

Veamos a continuación algunos posibles problemas que se pueden —y deben— analizar en tal sentido.

El que podamos averiguar la situación, en las secuencias de ADN que constituyen los genes, de los defectos que producen muchas enfermedades, constituye una información que se puede utilizar en numerosas direcciones.

Tomemos Como ejemplo a la corea de Huntington. La detección de esta enfermedad en un óvulo recién fecundado puede ser utilizada para que la mujer embarazada decida abortar, evitándose de esta manera un problema dramático. Pero pensemos en otro ejemplo que conduce a situaciones muy diferentes.

Una familia estadounidense tenía un hijo que padecía de fibrosis quística. El joven recibía atención médica a través de un seguro privado. Cuando su madre quedó embarazada de nuevo, se le exigió someter al feto a una prueba genética para averiguar si su hijo padecería el mismo trastorno. El resultado fue positivo, pero la mujer decidió continuar con su embarazo.

El seguro se planteó entonces la posibilidad de anular o limitar sus prestaciones a la familia.

Tenemos que darnos cuenta de que de lo que se está hablando aquí es de una situación nueva y compleja. Es evidente, especialmente dada la naturaleza de la cobertura médica en Estados Unidos, que la compañía de seguros —esta u otra cualquiera, en distintas o parecidas circunstancias— podía intervenir condicionando muy seriamente las posibilidades de esta familia, que, de esta manera, vería limitada gravemente su libertad.

¿Qué hacer en este tan notorio —y en muchos aspectos paradigmático— caso de conflicto de intereses?. He aquí uno de los problemas que el desarrollo del conocimiento científico plantea al presente y al futuro.

El mercado laboral puede verse también condicionado por la información genética. Hay que señalar en este sentido que uno de los hallazgos de la biología molecular es que existen secuencias de bases sensibles a la acción de factores ambientales determinados.

Como los que se pueden encontrar en algunos puestos de trabajo.

Aquí surgen, de nuevo, diferentes posibilidades. El poseer semejante información es, evidentemente, bueno para la persona, en tanto que elimina riesgos para su salud, pero también puede conducir a que las empresas en cuestión encaminen sus esfuerzos no a modificar las circunstancias medioambientales de sus centros de trabajo, ni a introducir cambios estructurales, sino, simplemente, a buscar empleados genéticamente resistentes, lo que tal vez conduciría a nuevas clases -o castas- sociales, definidas por características biológicas, una idea esta ante la que muchos retrocederíamos.

Mutaciones: Las mutaciones son alteraciones permanentes presentadas en el ADN de los genes. Al alterar el código genético producen cambios en el genotipo de los organismos que las padecen, y por ser permanentes, se transmiten a la descendencia. Las mutaciones en la gran mayoría de los casos son letales para los seres vivos; en muy contadas excepciones son benéficas.

Si una persona, al sufrir una quemadura, adquiere una cicatriz en su piel, está no se transmitirá a su descendencia. Al contrario, si ocurre una mutación en las células cuyas células hijas son el óvulo o el espermatozoide, ésta pasará a las generaciones siguientes.

Factores mutagénicos: Son los elementos que pueden inducir mutaciones en los seres vivos, es decir, los causantes de las alteraciones de la información genética. Los factores mutagénicos pueden ser de origen biótico o abiótico.

Factores mutagénicos bióticos: Entre los factores bióticos merecen tenerse en cuenta algunos virus. Un virus está formado por una molécula de ácido nucleico y una cápsula de proteínas. Como vimos en el taller anterior el virus se reproduce en el interior de la célula hospedera y después de muchas replicaciones se separa del material genético de la célula infectada y sale de ella.

Muchas veces, el material genético viral no se separa de la cromatina celular. Permanece indefinidamente ligado a ella, lo cual modifica la estructura genética y por consiguiente origina  mutaciones que conducen a enfermedades graves y a veces a la muerte. El virus del herpes, por ejemplo, se ha asociado con el origen de algunas formas de cáncer.

Factores mutagénicos abióticos: Entre los factores mutagénicos abióticos podemos considerar algunas sustancias químicas y algunas radiaciones físicas. Hay sustancias químicas que pueden modificar la estructura de las bases nitrogenadas del ADN o parecerse a ellas y ocupar su lugar, lo que conduce a errores en el código genético, induciendo mutaciones en personas expuestas a ellas que luego pasan a la descendencia. También pueden actuar a nivel del embrión de la mujer gestante, conduciendo a malformaciones genéticas severas y en ocasiones a la muerte embrionaria o fetal.

Entre las radiaciones físicas mutagénicas podemos enunciar la radioactividad, la luz ultravioleta, los rayos X. Éstos actúan sobre el ADN, produciendo modificaciones en algunas bases nitrogenadas y de esta manera alteran la información genética.

Las mutaciones, materia prima de la evolución Las mutaciones son esenciales en la evolución de las especies, ya que todas las variaciones genéticas se originan en cambios azarosos en la secuencia del ADN. El ambiente siempre está probando las secuencias existentes y nuevas de ADN, generando la competencia por la supervivencia. Ocasionalmente una mutación produce beneficios en las interacciones de los individuos con su ambiente.

La mutación podrá diseminarse en las nuevas poblaciones y predominar. Los individuos que las posean competirán de mejor manera con los individuos que albergan la secuencia original de ADN no mutada.

La lectura del genoma humano permite comprender mejor la enfermedad.

TERAPIA GÉNICA: La terapia gen la podría utilizar virus para modificar genomas de células específicas. Los virus pueden servir de portadores de genes que actúen por sí mismos o modifiquen los efectos de otros. Esto podría aplicarse a trastornos genéticos concretos.

EL PROYECTO HAPMAP: El objetivo de este proyecto de investigación internacional lanzado en 2002 es una base de datos gietoai de enfermedades hereditarias. El mapa registrará haplotipos (grupos de polimorfismos de nucleótido simple heredados normalmente como unidades) humanos extendidos. Los haplotipos compartidos pueden usarse como marcadores para identificar genes que activan afecciones concretas.

GENES EXPRESADOS: Distintas células activan (expresan) distintos genes. En el futuro, la identificación de proteínas codificadas por genes expresados facilitará la identificación de tipos específicos de células cancerosas.

MAPA GENÉTICO NEONATAL: Hacia 2020, los recién nacidos podrán contar con su mapa genético, que alertará sobre enfermedades hereditarias y así ampliará el campo terapéutico.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

ALGO MAS SOBRE EL TEMA….

Todavía sabemos relativamente poco sobre cómo un óvulo fecundado se convierte en adulto, con cientos de tipos de tejidos distintos, cada uno con exactamente el mismo mensaje genético, pero con cometidos tan distintos como crear el cerebro y los huesos.

Aunque ya hace mucho tiempo que es posible cultivar plantas adultas, y hasta ranas, a partir de células solas, la idea de que pudiera hacerse lo mismo con mamíferos parecía una fantasía, hasta el nacimiento de la oveja Dolly en 1997. Entonces, con el sencillo truco de insertar el núcleo de una célula adulta en un óvulo vaciado y permitirle desarrollarse en el interior de su madre adoptiva, se creó una oveja sin necesidad de sexo: se había clonado.

La clonación de ovejas o vacas podría ser importante para la cría de animales, y podría emplearse para elaborar múltiples copias de animales a los que se les han insertado genes humanos para producir proteínas como la hormona del crecimiento (que ya se utiliza para el «farmacultivo» de animales, la producción de fármacos valiosos en la leche).

La publicidad que siguió a Dolly suscitó una condena inmediata de la idea de la clonación humana, a menudo sin reflexionar demasiado sobre por qué debía ser algo tan horrendo. Después de todo, estamos acostumbrados a ver gemelos idénticos (que son mutuamente clónicos), así que ¿por qué debe suscitar tanto horror una versión artificial? Además, al fin y al cabo la opinión pública moldea lo que la ciencia puede hacer y la perspectiva de clonar un ser humano parece muy lejana.

Y ¿por qué querría alguien hacerlo? Quienes aseguran que surgirá un ejército de Sadam Husseines idénticos rayan en la tontería y también parece improbable la replicación de un hijo querido que murió joven. Sin embargo, la técnica hace albergar grandes esperanzas a la medicina. Las células del embrión en sus primeras fases (o células madre, como se las conoce) tienen el potencial de dividirse en una variedad de tejidos y pueden cultivarse —clonarse— en el laboratorio, o incluso manipularse con genes ajenos.

Tal vez podrían generar células cutáneas o sanguíneas nuevas o, con el tiempo, incluso órganos completos. Al implicar el uso de embriones en sus primeras fases que quizás se han conseguido mediante fecundación artificial en el laboratorio y que no se necesitan para implantarlos en la madre, todo esto se ha mezclado con el debate sobre el aborto. En Estados Unidos, el grupo de presión «Pro-Vida» ha logrado que tales investigaciones no reciban financiación de fuentes públicas.

La genética siempre se ha mezclado con la política. Se ha utilizado tanto para culpar el comportamiento humano como para excusarlo. La reivindicación de un «gen gay» suscitó dos respuestas distintas en la comunidad homosexual.

Algunos temían que el gen se utilizara para estigmatizarlos, pero muchos acogieron bien la idea de que su comportamiento pudiera estar codificado en el ADN, pues eso implicaba que no podía acusárseles de corromper a quienes no estaban ya en una situación «de riesgo». Estas opiniones contrarias son aplicables por igual a los supuestos genes que predisponen a delinquir; ¿acaso constituyen la prueba de que el criminal no puede reformarse y es preciso encerrarlo para siempre o deben utilizarse como descargo para sostener que no estaba actuando por voluntad propia?

La ciencia carece de respuesta para semejantes preguntas y, finalmente, el resultado más sorprendente de la nueva genética puede ser lo poco que nos dice sobre nosotros mismos.

EL MAPA GENOMA Y LAS ENFERMEDADES GENÉTICAS: Existen más de 4.000 enfermedades «de un solo gen», que siguen fielmente las leyes de Mendel y que pueden ser dominantes como la calvicie precoz, recesivas, como el albinismo, o ligadas al sexo, como la hemofilia o el daltonismo. Las enfermedades poligénicas son mucho mas.

Enfermedad de Alzheimer o enfermedad degenerativa del cerebro. Los enfermos pierden la memoria y el juicio. Afecta personas de más de 65 años y a casi el 50% de las de más de 80 años. Se localizaron varios marcadores de origen genético en los  cromosomas 1, 14, 19 y 21, que provocan diferentes tipos de Alzheimer, desde el tipo I hasta el IV. Es interesante que una trisomía en el cromosoma 21 (la presencia de un cromosoma 21 extra en cada célula) sea la causante del síndrome de Down, la forma más común de retraso mental. Las personas con síndrome de Down casi siempre suelen desarrollar la enfermedad de Alzheimer.

Cáncer de colon. Este tipo de cáncer le sigue en importancia al cáncer de pulmón. Más de 50.000 personas mueren cada año a causa de esta enfermedad. Los síntomas son hemorragias rectales, presencia de sangre en las heces. Un alelo mutante en el cromosoma 2 que aparece con frecuencia en determinados cánceres de colon, llamado MSH2, produce una enzima similar a las enzimas bacterianas reparadoras del ADN, por lo que su carencia o mal funcionamiento podrían explicar el desarrollo incontrolado de las células cancerigenas.

Cáncer de pulmón. Es la forma más común de cáncer en los países desarrollados. Se presenta con una tos persistente, dolor en el pecho, jadeos, ataques repetidos de neumonía y bronquitis, aparición de sangre al toser y ronquera. Como todos los cánceres, el de pulmón puede causarfatiga, pérdida de apetito y de peso. Un gen en el cromosoma 3, llamado SCLC1, predispone a padecer cáncer de pulmón. Pero éste depende del ambiente en la inmensa mayoría de los casos.

Corea de Huntington. Es una enfermedad degenerativa del cerebro, que lleva a la demencia. Se manifiesta entre los 30 y los 50 años. Los síntomas son cambios en la personalidad y en el estado de ánimo, depresión y pérdida gradual del control de los movimientos voluntarios, con espasmos primero y grandes movimientos al azar, como en un raro baile. Es provocada por un gen dominante localizado en el cromosoma 4; mediante un análisis de sangre se puede detectar la presencia del alelo.

Displasia diastrófica. Es una anormalidad del crecimiento caracterizada por huesos curvados, extremidades cortas y deformaciones en las articulaciones, los pies y las manos. Se ha descubierto un gen, en el cromosoma 5, asociado con esta enfermedad. Ha recibido el nombre de DTD.

Diabetes juvenil. La diabetes es una enfermedad metabólica crónica que las células pancreáticas sinteticen insulina, la hormona que controla el nivel de glucosa en la sangre. La diabetes, o del Tipo I es la más severa. Con esta enfermedad se asoció el gen llamado IDDM1, localizado en el cromosoma 6.

Obesidad. Es el exceso de grasa en el cuerpo, que frecuentemente trae aparejada una serie de problemas médicos. Una de cada cuatro personas en los países desarrollados está en riesgo de padecer esta afección y tiene más probabilidad de contraer enfermedades cardiovasculares. Los científicos pudieron determinar una proteína mutada en los ratones obesos. Se trata del polipéptido denominado leptina. Esta misma proteína se encuentra en el hombre. Es codificada por un gen localizado en el cromosoma 7. Queda por demostrar su relación con algunos casos de obesidad patológica.

Fenilcetonuria. Rara enfermedad metabólica causada por una deficiencia en la enzima fenilalanina-hidroxilasa, que en el hígado en las personas sanas. Es una enfermedad monogénica localizada en el cromosoma 12.

Enfermedad poliquística del riñón. Se caracteriza por provocar muchos quistes de gran tamaño en uno o en ambos riñones. Los insuficiencia renal o por las consecuencias de esta, como la hipertensión. En el cromo

Cáncer de páncreas. Es provocado por un gen, llamado DPC4, localizado en el cromosoma 18, cuyo producto proteico recibió el nombre de «supresor del carcinoma pancreático». Las mutaciones en este gen hacen que este tipo de forma especialmente agresiva e invada otros tejidos circundantes.

Distrofia miotónica. Enfermedad hereditaria de los músculos. Está asociada con una secuencia repetida de nucleótidos en el cromosoma 19. Una de las características poco usuales de esta enfermedad es que su severidad se  va acrecentando de una generación a otra, debido a que aparece cada vez un mayor número de repeticiones de la secuencia que produce la enfermedad.

Inmunodeficiencia severa combinada. Enfermedad monogénica bien caracterizada. Se manifiesta por la incapacidad del sistema  inmunitario de sintetizar anticuerpos que permitan neutralizar cualquier infección. El gen que codifica esta inmudeficiencia se localiza en el cromosoma 20.

Esclerosis lateral amiotrófica. Es la enfermedad que padece Stephen W. Hawking, el físico teórico inglés Es un trastorno neurológico degenerativo que provoca la progresiva inutilización de las neuronas motare del cerebro. En 1991, un equipo de científicos localizó en el cromosoma 21 un gen ligado a este tipo de e: S0D1 y presentaba una mutación recesiva.

Distrofia muscular de Duchenne. Crecimiento anormal de los músculos. El paciente muere hacia los veinte años, por paro cardíaco o pulmonar. Está ligada al sexo, por lo que su frecuencia de aparición es mucho mayor en varones, y su gigantesco gen se loe en el cromosoma X.

Malformación de los testículos. El cromosoma Y está prácticamente vacío, en comparación con su compañero, el X. Uno de los pocos  genes que pudieron localizarse en el cromosoma Y es el llamado factor determinante de los testículos, o TDF. Se trata de una «factor de transcripción». El TDF es capaz de unirse a determinados genes (no necesariamente en el cromosoma Y), cuyos productos proteicos son necesarios para la formación de los testículos durante el crecimiento fetal, lo que detrmina el futuro del individuo.

(Fuente: BIOLOGÍA Aciva Polimodal Puerto de Palos)

Fuente Consultada:
Diccionario de la Ciencia de José Manuel Sánchez Ron
Gran Enciclopedia Universal Espasa Calpe Tomo 4
El Jardín de Newton de José Manuel Sánchez Ron
Ciencias Naturales y Tecnología 3 Santillana

Evolucion de la Ingenieria Genetica Historia y Cronología de Avances

Evolución de la Ingeniería Genética y Cronología de los Avances

Los avances científicos del siglo xx han sido prolíficos y variados, ellos fueron, son y serán determinantes para mejorar la calidad de vida de los hombres del mundo. Muchos recordarán este período por la llegada del hombre a la Luna y la conquista del espacio exterior, la invención de las computadoras, los trasplantes de órganos o los bebés de probeta.

El recorrido por los hechos más sobresalientes de este siglo muestra que los logros en Genética y Biología molecular son altamente significativos y que tendrán notable incidencia en la curación de importantes enfermedades. Por esa razón, elegimos denominarlo «el siglo de oro de la Genética».

La teoría de la genética: A mediados del siglo XIX, la teoría de la evolución por selección natural, expuesta por Charles Darwin en su obra El origen de las especies (1859), suscitó encendidas controversias. A principios del siglo XX, los ánimos se habían serenado y los biólogos comenzaban a interesarse más por los mecanismos de la evolución que por la validez de la teoría de Darwin.

El carácter hereditario de ciertos rasgos es un hecho reconocido desde los albores de la civilización, ya que los parecidos familiares constituyen una observación al alcance de todos. Los criadores de ganado han aprovechado desde tiempos remotos este fenómeno para mejorar la calidad de sus animales.

Pero hasta fines del siglo XIX, los métodos utilizados eran totalmente empíricos. Por ejemplo, Robert Bakewell, famoso criador inglés del siglo XVIII, obtenía excelentes resultados por el procedimiento de cruzar a sus animales con otros no emparentados para conseguir los rasgos deseados y cruzar posteriormente entre sí a los animales así obtenidos con el fin de estabilizar los caracteres conseguidos.

La genética no surgió como ciencia hasta 1900, pero sus fundamentos habían sido sólidamente establecidos 40 años antes por Gregor Mendel, monje moravo del monasterio de Brno.

Entre 1851 y 1853, su orden lo envió a Viena a estudiar ciencias y, al regresar al monasterio (del que llegó a ser abad en 1868), inició una serie de experimentos con la planta del guisante (Pisum). Estudió siete características específicas de esta planta, entre ellas, la forma de la semilla, el color de las flores y la longitud del tallo.

TEMAS TRATADOS:

La Célula Célula Madre Los Genes y Genoma Estructura ADN La Oveja Dolly La Clonación
Terapia Genética La Biotecnología

Llevando detallados registros sobre más de 20.000 ejemplares, descubrió que estas características eran hereditarias en un coeficiente aproximado de 1:3. El cruzamiento de plantas de tallo largo con ejemplares de tallo corto daba como resultado plantas de uno u otro tipo, nunca de altura intermedia.

Mendel supuso entonces que estas características eran transmitidas por factores hereditarios específicos que estaban localizados en las células germinales.

Sus ideas eran básicamente correctas pero, por desgracia, pasaron inadvertidas ya que sólo se publicaron en el periódico de la Sociedad de Historia Natural de Brno. Decepcionado, envió una copia de su trabajo al destacado botánico suizo Karl von Nágeli (1817-1891), que no fue capaz de reconocer su importancia.

El hecho fue tristemente irónico, ya que el propio Nágeli, en 1842, había descrito minuciosamente el proceso de formación del polen en la familia de las azucenas, las liliáceas, y en sus apuntes había indicado la separación en el núcleo de lo que denominó «citoblastos transitorios», que eran en realidad los cromosomas, portadores de los «factores hereditarios» (genes) de Mendel.

Se perdió así una gran oportunidad. En 1900, dieciséis años después de la muerte de Mendel, el botánico holandés Hugo de Vries publicó los resultados de una larga serie de experimentos de reproducción vegetal, en los que también obtuvo un coeficiente de 1:3. Al publicar sus trabajos, citó las investigaciones de Mendel, realizadas treinta y cuatro años antes.

En pocas semanas, otros dos botánicos, C.E. Correns en Alemania y E. Tschermak von Seysenegg en el Imperio Austrohúngaro, publicaron resultados similares. De esta forma, el nuevo siglo comenzó con la confirmación de los coeficientes de Mendel, que sentaron una sólida base para la teoría genética.

En Estados Unidos, el zoólogo T.H. Morgan comenzó a estudiar la evolución y la herencia en 1903. Al principio, los resultados de Mendel le inspiraban escepticismo, pero sus investigaciones con la mosca de la fruta, Drosophila (un sujeto experimental particularmente conveniente, ya que se reproduce con rapidez y presenta cromosomas gigantes en las células de las glándulas salivales), muy pronto lo convencieron.

Llegó a la conclusión de que los genes, dispuestos en los cromosomas como las cuentas en un collar, eran las unidades de la herencia, y en 1911 publicó con sus colaboradores el primer «mapa cromosómico», en el que aparecía la localización de cinco genes ligados al sexo. Diez años más tarde, más de 2.000 genes habían sido localizados.

En 1900 se aceptaron las leyes de la herencia que Johan Gregor Mendel había hecho públicas en 1865. En 1953,James Watson y Francis Crick descubrieron la estructura del ácido desoxirribonucleico (ADN), la llamada «molécula de la herencia», que contiene las instrucciones necesarias para crear un ser vivo. La publicación de su artículo en la revista Nature, en 1953, fue el punto de partida de una revolución científica todavía en curso. En 1973 nació la ingeniería genética, al conseguir transplantar material genético de un organismo a otro.

La lista de organismos creados a medida -y patentados- se amplió año tras año: una bacteria que devoraba el petróleo (1980), ratones que pesaban el doble de lo normal (1982) o un tomate con el proceso de maduración ralentizado (1987). Con la oveja Dolly, se popularizaron los clones, organismos genéticamente iguales a otro.

En 2003 se consiguió el desciframiento completo del genoma humano, la cadena de ADN que contiene nuestras instrucciones genéticas. Se concluyó que de los 3.120 millones de datos que lo componen, el 99,8% de ellos es idéntico para todas las personas, dato que invalidó definitivamente el criterio discriminador de raza.

Revelaba también que tenemos en torno a los 30.000 genes, poco más del doble que una mosca, 300 genes más que los ratones y muchos menos que el arroz. Lo que nos hace distintos, pues, no es la cantidad sino la interacción entre los genes.

Con el desciframiento del genoma, se inauguró una nueva era de la medicina, con aplicaciones todavía impredecibles en la detección, prevención y tratamiento de enfermedades.

Si la responsabilidad social del científico ya era un tema debatido cuando estudiaba materia inorgánica, más lo es en la actualidad, cuando en el laboratorio se crean seres vivos y se experimenta la clonación humana. Otro debate abierto es la relación entre ciencia y empresa. En el pasado, la ciencia se ha beneficiado del intercambio de información, de la búsqueda desinteresada del conocimiento como un fin en sí mismo, del trabajo competitivo pero altruista de universidades y centros públicos.

Hoy, las leyes del mercado rigen el mundo científico, especialmente en los EE.UU., líderes absolutos en investigación. Las empresas invierten lo que no invierten los estados pero sus legítimos intereses económicos condicionan el avance científico, incluso en el ámbito público, e impiden la libre circulación del conocimiento.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

CRONOLOGIA DE LA EVOLUCIÓN CIENTÍFICA

Entre todos los acontecimientos seleccionamos los siguientes:

1902. Hugo de Vries (botánico y genetista holandés, 1848-1935) descubre las mutaciones genéticas, cambios repentinos en los genes que se transmiten luego a la progenie.

1902. Ernest H. Starling (fisiólogo inglés, 1866-1927) y William M. Baylss (fisiólogo británico, 1860-1924) aislan la primera hormona sintética: la secretina.

1902-1909. Walter S. Sutton (genetista norteamericano, 1877-1916) y Thomas H. Morgan (genetista norteamericano, 1866-1945) descubren que las partículas que transmiten la herencia (genes) están ubicadas en los cromosomas.

1905. Albert Einstein (físico suizo-alemán, 1879-1955) publica su trabajo acerca de la teoría de la relatividad. «En ciertas condiciones extremas la masa se transforma en energía.»

1913. Alfred H. Sturtevant (genetista estadounidense, 1891-1970) comienza a construir mapas cromosómicos.

1914. Luis Agote (médico argentino, 1868-1954) logra que la sangre pueda mantenerse en estado líquido fuera del cuerpo al agregarle un anticoagulante: el citrato de calcio.

1923. Frederick G. Banting (médico canadiense. 1891-1941) recibe el Premio Nobel de Medicina y Fisiología porque logró aislar la insulina, hormona que regula el metabolismo de la glucosa y que se utiliza hoy en día en el tratamiento de la diabetes.

1927. Hermann J. Muller (biólogo norteamericano, 1890-1967) descubre que la exposición a los rayos X incrementa la tasa de mutaciones.

1928. Alexander Fleming (bacteriólogo escocés, 1881-1955) descubre accidentalmente la penicilina.

1937. Theodosius Dobzhansky (genetista estadounidense, 1900-1975) establece la vinculación entre los mecanismos de la herencia y la selección natural, dando origen a la teoría sintética de la evolución.

1947. Bernardo A. Houssay (médico argentino. 1887-1971) obtiene el Premio Nobel de Medicina y Fisiología por sus investigaciones sobre la función de la glándula hipófisis en la regulación del metabolismo de los azúcares.

1953. James D. Watson (bioquímico norteamericano, n. 1928) y Francis H. C. Crick (físico inglés, n. 1916) presentan la estructura molecular del ADN. base de la reproducción de todas las formas de vida. Por su hallazgo, en 1962 reciben el Premio Nobel de Medicina y Fisiología. 1965. Christian N. Barnard (médico sudafricano, n. 1922) realiza el primer trasplante de corazón humano.

1965. Los biólogos franceses Francois Jacob (n. 1920), André-Michel Lwoff (n. 1902) y Jacques-Lucien Monod (1910-1976) comparten el Premio Nobel de Medicina y Fisiología por sus descubrimientos relacionados con la genética de los procariotas.

1969. Los microbiólogos norteamericanos Max Delbrück (1906-1981), Salvador E. Luria (n. 1912) y Alfred Day Hershey (n. 1908) comparten el Premio Nobel por sus descubrimientos vinculados con el mecanismo de replicación y la estructura genética de los virus.

1969. El astronauta norteamericano Neil A. Armstrong (n. 1930) es el primer hombre que pisa el suelo de la Luna. El 20 de julio. Armstrong y su compañero Edwin E. Aldrin (n. 1930) posan el módulo lunar Apolo XI en la superficie lunar, mientras Michael Collins (n. 1930) permanece en órbita en torno del satélite.

1970. Luis F. Leloir (bioquímico argentino. 1906-1987) recibe el Premio Nobel de Química por descubrir el papel de un nuevo tipo de complejos esenciales para la vida animal y vegetal como el glucógeno, la celulosa y el almidón.

1973. Konrad Z. Lorenz (médico y naturalista austríaco, 1903-1989) es galardonado con el Premio Nobel de Medicina y Fisiología por su estudio de la conducta de los animales y la introducción del término Etología. premio compartido con Karl R. von Frisch (zoólogo alemán, 1886-1982) y Nikolaas Tinbergen (zoólogo holandés, 1907-1988).

1981. Barbara McClintock (química estadounidense, 1902-1992) recibe el Premio Nobel de Medicina y Fisiología por sus estudios de mapeo ci-tológicos en los que observó inactivación de genes por el movimiento de elementos génicos de un lado al otro de los cromosomas.

1984. César Milstein (bioquímico argentino, n. 1927) recibe el Premio Nobel de Medicina y Fisiología por su descubrimiento acerca de los principios que rigen la producción de los anticuerpos monoclonales. Este descubrimiento es utiliz: por la Medicina para la elaboración de vacunas y el diagnóstico de enfermedades como el cáncer.

1987. Susumu Tonegawa (bioquímico japones n. 1927) recibe el Premio Nobel de Medicina y Fisiología por demostrar que segmentos de ADN separados codifican porciones variables de moléculas de los anticuerpos, iniciando de esta manea una serie de descubrimientos en relación con el funcionamiento del sistema inmune.

1990. Los doctores estadounidenses W. French Anderson, R. Michael Blaese y K. Culver, del Instituto Nacional de Sanidad de Bethesda, realizar, con éxito la primera terapia génica en una niña de cuatro años, Ashanti De Silva, que padecía inmunodeficiencia combinada grave, una enfermedad hereditaria mortal.

1997. Un equipo científico del Instituto Roslin. de Escocia, dirigido por el doctor Ian Wilmut. crea una oveja por clonación a partir del núcleo celular de la ubre de su progenitura y del citoplasma de un óvulo. Dolly, la primera oveja clonada, abre unnuevo camino en el campo de la Ingeniería genética y la Biotecnología, de resultados y consecuencias aún insospechados.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

INGENIERÍA GENÉTICA

Disciplina que se ocupa de «unir genes»; esto es, de sustituir un segmento de ADN de una célula por uno de otra (al organismo que surge de este proceso se lo denomina transgénico).

Hasta comienzos de la década de 1970 no se conocían técnicas adecuadas para manipular el ADN en tubos de ensayo. Debido a ser las moléculas de ADN de gran tamaño, cuando se las intentaba fragmentar los cortes se producían al azar, con lo cual se descomponía la información genética contenida en ellas de forma tal que era prácticamente imposible de recomponer.

Sin embargo, a comienzos de esa década se encontraron herramientas moleculares que podían resolver muchos de esos problemas: enzimas capaces de cortar sólo por sitios determinados las moléculas de ADN; ligasas capaces de reunir con precisión molecular los fragmentos y sellar las uniones para dejarlas perfectamente reparadas, y un gran número de otras enzimas capaces de cortar, modificar, multiplicar y recomponer el ADN (se habla de ADN recombinante), lista es la tecnología conocida como ingeniería genética.

Por medio de ella se pueden seleccionar no ya individuos, sino algunos de sus genes o porciones de ellos. Se puede, en definitiva, crear algo absolutamente nuevo: nuevas moléculas vivientes, nuevos genes y por tanto nueva vida.

Y existen otros procedimientos, más recientes, que introducen importantes novedades. Desde finales de la década de 1980 y comienzos de la de 1990 existe la posibilidad de generar animales a los cuales se les puede eliminar un determinado gen.

No se trata, pues, de animales transgénicos, sino de estirpes (de ratones, por ejemplo) carentes de un determinado gen, lo que permite precisar cuál es la verdadera función de ese gen, sin más que estudiar las deficiencias que presenta el animal.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Las técnicas de Ingeniería genética se basan en el ADN recombinante, formado por moléculas de ADN que se originan en dos o más organismos (o virus) diferentes. En general, tienen un denominador común: en todas se manipula el material genético (ADN) de dos o más especies diferentes.

Estas técnicas, desarrolladas hace menos de treinta años, revolucionaron todas las áreas de investigación y de aplicación tecnológicas. Tuvieron una enorme influencia en el diagnóstico y en el tratamiento de distintas enfermedades, así como en el agro y en la industria, pues con ellas desarrollaron microorganismos, plantas y animales de crecimiento más rápido, de mejor rendimiento nutritivo, etc. Se utilizaron, por ejemplo, para la fabricación de antibióticos y para lograr una mayor resistencia a los herbicidas.

Las principales «herramientas moleculares» que se emplean para obtener ADN re-combinante son, además de la secuenciación del ADN y de la clonación ya estudiadas, las enzimas de restricción y la reacción en cadena de la polimerasa.

• Las enzimas de restricción actúan a la manera de «tijeras» moleculares, y segmentan el ADN en puntos específicos de la cadena, es decir, son capaces de fragmentar el genoma. Una de las utilidades de dichas enzimas es que permiten localizar los genes responsables de las distintas enfermedades hereditarias que afectan al hombre.

Por medio de ellas, se obtienen fragmentos de ADN, los cuales pueden insertarse en el interior del ADN de vectores («vehículos moleculares») presentes en las bacterias: los plásmidos. Esta nueva molécula de ADN es el ADN recombinante. Así, resulta posible, por ejemplo, introducir en un plásmido bacteriano el gen que codifica la producción de la insulina humana.

• La reacción en cadena de la polimerasa (PCR) es un método que permite obtener, en poco tiempo, muchísimas copias de un fragmento de ADN particular. Fue desarrollado en 1983 por el bioquímico norteamericano Kary Mullís, a quien diez años después se lo distinguió con el Premio Nobel por esta invención.

Para realizar la PCR, sólo hace falta conocer una parte de la secuencia del fragmento que se desea amplificar. La sensibilidad del método es tal que una pequeñísima fuente de ADN, como la contenida en una gota de sangre o esperma o en la raíz de un cabello, basta para realizar el análisis.

Las aplicaciones de estas dos técnicas son innumerables: pueden utilizarse para diagnosticar enfermedades genéticas, detectar infecciones virales y bacterianas o determinar la identidad del sospechoso de un crimen, además de ser herramientas fundamentales en los laboratorios de investigación.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png
esquema obtencion de insulina reconbinante
Obtención de insulina recombinante: A: Los genes de la insulina humana son introducidos en un plásmido bacteriano detrás del gen bacteriano de la galactosidasa, y quedan así incorporados en su dotación génica. B: Cuando los genes que regulan la producción de insulina incorporados a genoma de la bacteria se expresan, el microorganismo comienza a generar insulina idéntica a la humana.

Historia de la Fisica Moderna Los Descubrimientos y Evolución

Historia de la Física Moderna – Siglos XIX y XX

Temas Relacionados:

1-Que es el Atomo y su Energía
2-Organismo Geneticamente Transformado
3-La Nanotecnología
4-Proyecto Genoma Humano

HISTORIA DE LA FÍSICA MODERNA – SIGLO XIX Y XX:  La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta. Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y la radiactividad,descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

En la época de la electrostática, ya se habían interesado mucho por los fenómenos que acompañan el paso de la electricidad a través de los gases. Después, cuando la antigua máquina de platillo fue reemplazada por la bobina de Ruhmkorff (1803-1877) y la ciencia del vacío se perfeccionó considerablemente gracias a los dispositivos que rehabilitaban la cámara barométrica y al gran empleo del mercurio, fue posible observar lo que pasaba cuando la descarga eléctrica se produjo en una atmósfera gaseosa rarificada.

Estaba reservada a sir William Crookes (1832-1919) realizar el más sensacional de los descubrimientos de su tiempo. Hábil experimentador, Crookes se dedicó a estudiar, a partir de 1878, el paso de la corriente por tubos en los que el gas se reducía a algunas moléculas.

En estas condiciones, el interior de la ampolla no produce ninguna luz «mientras que sus paredes se iluminan con una viva claridad verde». Tras una serie de ingeniosos experimentos, Crookes terminó por demostrar que se trataba de una irradiación particular emitida por el electrodo negativo o cátodo.

Esta irradiación se propaga en línea recta a través del tubo, hace luminiscentes y calienta los cuerpos sólidos que encuentra y hasta ejerce una presión sobre ellos. Todo sucede, en fin, como si unos corpúsculos lanzados a gran velocidad bombardeasen los cuerpos más próximos.

A pesar de todas las ideas admitidas en su tiempo sobre la primacía de las ondas, Crookes tuvo la audacia de pensar que la luz verde que aparecía en las paredes de la ampolla no era otra cosa que un flujo de moléculas materiales lanzadas a gran velocidad. No se equivocaba más que sobre la dimensión de los proyectiles pero volvía a introducir en física una noción pasada de moda y ridiculizada: la emisión. ¿Se habría equivocado Newton?

Entre tanto, todos los laboratorios de Europa se proveían de ampollas de Crookes. Hacia 1880, demostró que los rayos catódicos—así se les llamaba entonces—atravesaban unas delgadas láminas de metal colocadas en su trayecto en el interior de la ampolla y en 1892 con;, guía Lénard hacerlos salir del tubo a la atmósfera sin otro artificio que el de practicar en la ampolla una ventanilla formada por una c; esas delgadas láminas de metal.

Esto equivalía a arruinar la hipótesis de la emisión ya que ningún bombardeamiento molecular podía jactarse de atravesar las paredes, pero ¿y si los proyectiles no eran moléculas? La cuestión quedó zanjada por un experimento decisivo realizado en 1895 por Jean Perrin, entonces preparador en el laboratorio de la Escuela normal superior.

Perrin demostró que los rayos catódicos no son más que granos de electricidad negativa lanzados a gran velocidad a través de la ampolla vaciada. En otros términos: acababa de descubrirse el electrón.

En este mismo año 1895, Roentgen (1845-1923) se entregaba, por su propia cuenta, a experimentos sobre los rayos catódicos cuando, por casualidad, observó que el tubo de Crooke: emitía otro género de irradiaciones. Pues bien: se trataba de un hecho propiamente hablando escandaloso, ya que estos nuevos rayos se propagaban exactamente en línea recta, atravesando los cuerpos opacos y permitiendo fotografiar, a través de la carne, el esqueleto de un ser vivo.

Este descubrimiento estalló algo así comí una bomba en todos los laboratorios del planeta. No era difícil repetir el experimento: un tubo de Crookes, una bobina de inducción, una placa fotográfica envuelta en un papel negro. y una pantalla recubierta de una sustancia fluorescente.

Se hicieron muchas radiografías ; no faltaron los «cobayas». Había dos cosas absolutamente desconocidas a propósito de estar misteriosas radiaciones, a las que inmediatamente se las bautizó como rayos X: primero el tremendo peligro que entrañan por poco que uno se exponga a ellos con demasiado frecuencia. y después su origen. ¿Por qué parte del aparato eran emitidos?

El gran matemático Henri Poincaré expresó la idea que quizá la emisión de rayos X estuviera ligada a la fluorescencia del vidrio herido por los rayos catódicos. En esta teoría coincidían a la vez una verdad y un error; la pared de vidrio emite, en efecto, la misteriosa irradiación, pero esta emisión se opera sin conexión con la florescencia.

La emisión la realizan tan bien o mejor cuerpos que no son en absoluto fluorescentes. Esta comprobación no parecía tener utilidad alguna, pero habría de llevar al descubrimiento de la radiactividad natural.

El 20 de enero de 1896, lunes, día de sesión en la Academia de Ciencias, Henri Poincaré mostró a sus colegas las primeras radiografías hechas en Francia y propuso la teoría antes aludida y según la cual el vidrio de la ampolla de Crookes, hecho fluorescente, había emitido rayos X. Si las cosas se desarrollaban así. sustancias naturalmente fluorescentes como, por ejemplo, el sulfato doble de uranio o de potasio, debían producir espontáneamente rayos X. Es lo que quiso averiguar Henri Becquerel (1852-1908).

Cogió un chasis opaco, de cartón negro, que contenía una placa fotográfica y dos láminas de sulfato doble de uranio y de potasio sujetas por unas tiras de papel. Entre una de ellas y el chasis colocó una moneda de plata y lo expuso todo a los rayos del sol. Al revelar la placa, Henri Becquerel comprobó que aparecían unas huellas correspondientes al emplazamiento de las láminas y de la moneda de plata que absorbían en parte las irradiaciones de las dos sustancias.

¿Quedaba confirmada la hipótesis de Henri Poincaré? ¡Quién sabe! En espera de que llegara un día soleado que tardaba en presentarse, Becquerel encerró todo su equipo en un cajón oscuro. Cuál no sería su sorpresa cuando el 1 de marzo de 1896 quiso asegurarse de que su placa fotográfica estaba todavía virgen.

Impulsado por no se sabe qué curiosidad, la desenvolvió y la encontró impresionada. Ante sus ojos extrañados aparecieron con toda claridad unas sombras que dibujaban las formas de las láminas y mostraban la radiografía de una cruz de cobre muy fina colocada sobre una de ellas. La sal de uranio emitía rayos X tanto en plena oscuridad como a la luz. La fluorescencia no intervenía para nada en el fenómeno. Con una intuición admirable, Becquerel pudo anunciar entonces el hecho de que se trataba de una propiedad atómica independiente de la composición química del elemento uranio.

Acogida al principio con reticencia, esta tesis fue confirmada en febrero del año siguiente por J. J. Thomson y por su joven ayudante Ernest Rutherford, quienes estudiaron también los «rayos uránicos». Gradualmente se iba imponiendo la verdad: las sales de uranio eran una especie de ampollas de Crookes naturales aun cuando nadie sabía decir por qué.

En 1882, Pierre Curie (1859-1906) fue nombrado jefe de trabajos prácticos de la Escuela de física y química. En esta época, este gran científico y su esposa Marie (1867-1934) eran desconocidos del gran público, pero quienes estaban al corriente de los progresos de la física tenían ya a los dos esposos como unos genios.

Pierre Curie se ocupaba de cristalografía cuando la señora Curie tuvo la idea de investigar las propiedades del uranio en los diversos compuestos de este elemento y en los minerales que lo contienen. Algunos de ellos demostraban una actividad mayor aún que la del uranio puro. No era difícil sacar la conclusión de este fenómeno: estos minerales debían contener un cuerpo desconocido más activo que el uranio.

Pierre Curie se dio cuenta inmediatamente de que sus trabajos sobre cristalografía podían esperar un poco y que convenía trabajar sobre los datos recogidos por su esposa. Poco después demostraba la señora Curie la existencia de un cuerpo nuevo: el polonio; después, los dos esposos redoblaron sus esfuerzos y pudieron anunciar, el 26 de diciembre de 1898, que habían descubierto un nuevo elemento que se desintegraba espontáneamente: el radio.

Más aún, Pierre y Marie Curie pudieron establecer muy pronto que el radio se transforma en otros productos radiactivos como el helio, para terminar finalmente en un metal inerte, el plomo. Se había logrado una verdadera transmutación de elementos y este descubrimiento ha revolucionado el mundo.

En el terreno práctico, los resultados obtenidos por Fierre y Marie Curie iban a engendrar una muchedumbre de aplicaciones, sobre todo desde el punto de vista médico, pero hubo que esperar hasta 1912 para que se descubriera al fin en qué consistían los rayos X. Utilizando las redes de moléculas descubiertas por Bravais, cristalógrafo francés del siglo XIX, y cuyas dimensiones del orden de la diezmilésima de miera son lo suficientemente pequeñas como para difractar los rayos X, el físico alemán Max von Laue reconoció al fin que estos rayos pertenecen al mismo grupo que los rayos luminosos ordinarios de los que no se diferencian más que por la extraordinaria rapidez de sus vibraciones.

Son, por así decirlo, hiperultravioleta, y en estas condiciones hubiera tomado nuevo vigor la tesis de las ondulaciones del éter si no hubiera descubierto Planck el fotón en 1898.

Ondas luminosas, rayos gamma y rayos X constituían, no cabía duda, emisiones de fotones. La inexistencia del éter y, por tanto, de sus vibraciones, había sido ya realmente demostrada mucho antes, gracias a un experimento magistral.

En 1887 emprendió Michelson la tarea de demostrar el influjo de la translación terrestre sobre la velocidad de la luz. Algunos años antes, en 1881, el ingenioso experimentador había inventado un interferómetro de una precisión inigualada. Con ayuda de este aparato iba a poderse confirmar o destruir la existencia del éter.

En efecto, si este último es un medio estable que transmite los movimientos vibratorios, los de la onda luminosa o de la onda eléctrica, habría de poderse encomendar el movimiento de dos rayos de luz, uno de los cuales sería dirigido en el sentido de la traslación terrestre, el otro perpendicularmente al plano de este movimiento. O dicho de otra forma, habría de poderse demostrar el desplazamiento absoluto de nuestro globo a través del éter por el complemento de velocidad de que se beneficiaría une de los rayos luminosos.

Ahora bien: la velocidad de la tierra es de unos 30 Km. por segundo, la de la luz de 300.000 Km. por segundo. Er. estas condiciones, el desplazamiento de las franjas luminosas de interferencia debía corresponder a la ínfima diferencia de una cienmillonésima, fracción que representa el cuadrado de la relación entre la velocidad de desplazamiento de la tierra y la velocidad de la luz.

Michelson, con ayuda de su colega Morley. realizó un ingenioso dispositivo compuesto de cuatro espejos, una fuente luminosa y el interferómetro de precisión de que hemos hablado antes. El resultado del experimento fue absolutamente negativo.

El suplemento de 30 Km. por segundo no aceleraba en modo alguno el rayo luminoso que continuaba imperturbablemente su carrera a una velocidad normal de 300.000 kilómetros por segundo. No se necesitaba más para afirmar que no existía el éter. Y de ahí nació toda la teoría de la relatividad.

ALBERT Einstein (1879-1955) hay que considerarle ante todo como matemático, pero como la física es una ciencia que se matematiza cada vez más, la relatividad constituiría para ella una fuente de fecundas explicaciones. En primer lugar, como no puede encontrarse ningún punto fijo en todo el universo, había que admitir que el mundo en que vivimos está construido de tal forma que, en un sistema en movimiento, es imposible evidenciar el desplazamiento de ese sistema y a fortiori, la velocidad del mismo desplazamiento.

A este postulado, o más bien axioma, puesto que parece evidente por sí mismo, añadía Einstein que, cualquiera sea el sistema en traslación a partir del cual se mida la velocidad de la luz, esta velocidad conserva siempre el mismo valor numérico.

En el campo de la astronomía, la introducción de un constituyente limitado en un todo que se creía infinito iba a imponer inmediatamente la noción de un universo cuyas fronteras, siempre móviles, han sido establecidas recientemente sobre la base de un radio de diez mil millones de años-luz.

En física, había que concluir que la inexistencia del éter terminaba con las viejas leyes de la cinemática clásica y que la noción de espacio, tomada aisladamente, ya no tenía ningún sentido. Esto llevó a Einstein a la noción muy abstracta de continuum espacio-tiempo y a la aceptación por parte de los físicos de una hipótesis propuesta ya en el siglo pasado por Riemann y que negaba que el espacio fuese independiente de los fenómenos físicos que se desarrollan en él, lo que necesariamente hacía del tiempo una dimensión del espacio.

La física nuclear ha demostrado en nuestros días que esta noción respondía a la realidad.

Sabemos experimentalmente que la energía posee una masa y que la masa se materializa en energía, principio expuesto por Einstein ya en 1905 y que se resume en esta fórmula clave de nuestro mundo moderno: E = mc2, en la que la energía equivale a la masa multiplicada por un factor correspondiente al cuadrado de la velocidad de la luz.

Los descubrimientos de Einstein no se agotan ahí. Aprovechando las conclusiones impuestas por unos experimentos realizados en 1903 con el tubo de Crookes, Einstein afirmará que la verdadera masa del electrón no es de naturaleza mecánica, sino de naturaleza electromagnética. En estas condiciones, los fenómenos electromagnéticos se imponían a todos los demás y sus leyes vendrían a constituir los principios básicos de la mecánica.

Con la formulación de la relatividad restringida se abre el camino a la tesis que Einstein desarrollará más tarde en forma de una teoría de la relatividad generalizada. Todo esto teniendo en cuenta el concepto del danés Bohr, quien en 1913 rechazará el electromagnetismo clásico en su concepción del modelo de átomo, lo que apunta claramente hacia el camino que más tarde conducirá a los físicos a considerar favorablemente la gran hipótesis del campo unitario.

Al mismo tiempo, una nueva teoría tan desconcertante como la de la relatividad iba a dar al traste con la hermosa noción de continuidad, sobre la que descansaba la física clásica. Se trata, naturalmente, de la teoría de los quanta, formulada muy ingeniosamente hacia 1900 por el gran físico alemán Max Planck por razones puramente experimentales: la famosa emisión de luz por los cuerpos negros, verdadero rompecabezas para los físicos de la época.

Las teorías de Planck revisten un grado tal de abstracción que nos es imposible explicarlas aquí, porque se necesitaría todo un capítulo especial cargado de fórmulas y gráficos. Lo esencial es saber que, según Planck, toda especie de energía es de naturaleza discontinua. O dicho de otro modo: la luz o la electricidad no nos las proporciona la naturaleza en forma de flujo ni de fluido, sino, literalmente hablando, en pequeños paquetes: los quanta. Para no dejar nada al azar, Planck se tomó el cuidado de cifrar con la mayor exactitud las dimensiones de esos paquetitos. En unidad C. G. S., se expresa con el número cuasi infinitesimal de 6,55 X 10-27. No podría irse más lejos, y ésa es, en efecto, la medida exacta de un simple grano de energía simbolizada por la letra h, o constante de Planck.

Los intercambios de energía entre materia e irradiación se hacen, pues, por quanta. La irradiación tiene una estructura discontinua, lo mismo que la emisión, sobre todo la emisión de la luz. Se recordará que apoyándose en la teoría de los quanta descubrió Einstein en 1905 el fotón o grano de luz. Esto produjo un gran escándalo ya que venía a derribar los cálculos de los hombres de ciencia. Si la luz era una emisión de fotones y la electricidad una emisión de electrones, ¿cómo explicar la continuidad que es la ley de las ondas? La dificultad la resolvió en 1924 otro gran genio científico, Louis de Broglie, nacido en 1892 y Premio Nobel de física en 1929.

Como ha dicho él mismo, lo esencial era encontrar un sujeto al verbo ondular. Louis de Broglie pensó que ese sujeto tenía que ser el mismo electrón y no ese éter demasiado metafísico. «Si así fuera, dice el gran científico, habría que pensar que hay que imaginarse los corpúsculos materiales, especialmente el electrón, como acompañados, y en cierto sentido guiados, por una especie de onda». Esta solución de compromiso es la base de la nueva doctrina llamada ondulatoria. Desde ese momento ya no existe el escándalo. «Hoy sabemos que el protón y los núcleos de los átomos, en los que están concentradas las cargas positivas de la materia, están también asociados a ondas… por lo que la barrera que, desde hacía tanto tiempo, separaba la física de las radiaciones de la física de la materia parece haberse derrumbado ya.» Así lo que quiere esta nueva doctrina de una abstracción impresionante. Desde ese momento, la realidad física va a volatilizarse en un «esquema matemático», para servirnos de la expresión de Sommerfeld, y la ciencia, a medida que se va desarrollando, se alejará cada vez más del «antropomorfismo de la sensación».

En 1897, el gran físico inglés Joseph J. Thomson (1856-1940). cuando estaba perfeccionado el experimento de Lénard (1885) sobre los rayos catódicos, descubrió que estos extraños rayos podían ser deflectados por medio de un electroimán. Calculó su velocidad y encontró que era muy próxima a los 300.000 Km. por segundo; después, suponiendo que estaban compuestos de corpúsculos, trató de estimar la masa y la carga de éstos. Pudo establecer que la relación de la carga a la masa de la partícula era una constante independiente a la vez de la naturaleza del gas contenido en la ampolla y del metal de los electrodos. «No veo, dice, forma alguna de escapar a la conclusión de que se trata de cargas de electricidad negativa transportadas por partículas de materia.»

Desde entonces pasó a ser de dominio público el término electrón. En 1909, Robert Millikan, profesor entonces de la Universidad de Chicago, acometió la tarea de demostrar experimentalmente la existencia y la naturaleza de la partícula. El dispositivo que inventó era de una genial sencillez: consistía en una cámara de niebla en la que unas gotitas de aceite en suspensión subían o bajaban según que obedeciesen a la simple gravedad o al impulso de un campo magnético variable. Un excelente aparato óptico permitía observarlas cómodamente. De cuando en cuando, una gotita cambiaba brutalmente de velocidad. ¿No sería porque había capturado un electrón? En este supuesto, como se conocía la masa de la gotita y la intensidad del voltaje, resultaba teóricamente posible deducir la carga del electrón y también su masa. Pero el electrón es tan pequeño que la gotita cargada con veintidós partículas se comportaba exactamente como si sólo estuviese cargada de una. Expresada en culombios, la carga de un electrón implica dieciocho ceros antes de la coma.

En cuanto a la masa, necesita veintisiete ceros antes del primer decimal. Puede suponer-se los esfuerzos que tuvo que hacer el ingeniero físico para llegar a esos resultados, pero de todas maneras, el electrón no era un mito, aun cuando, según la expresión del mismo Millikan, el radio de un cabello comparado con el de mi electrón sea aproximadamente diez mil millones de veces más grande.

El descubrimiento del protón no se realizó oficialmente hasta 1920, pero hacía ya mucho tiempo que rondaba la mente de los científicos. En 1886, el físico alemán Goldstein colocó en el centro  de un tubo de Crookes un ánodo constituido por un enrejado muy fino y no sólo pudo observar la aparición de rayos catódicos, sino también la de una radiación de un amarillo dorado claro que «penetrando el enrejado, llenaba todo el espacio entre el cátodo y la pared.«.

Esta radiación no era otra cosa que una emisión de protones, partículas nucleares cuyo peso es igual al de 1.840 electrones. La irradiación de Goldstein contenía núcleos de nitrógeno puro. Si el gas rarificado de su tubo hubiera sido de hidrógeno, su color hubiese sido rosa, verdoso o grisáceo si hubiese sido de óxido de carbono. En realidad, Goldstein no había hecho más que ionizar el gas de su ampolla, es decir descomponer los átomos de este gas en electrones (rayos catódicos) y en protones (rayos canales).

En 1910 volvió J. J. Thomson a hacer la experiencia y terminó por proyectar los misteriosos rayos canales sobre una pantalla fluorescente en la que producían unas escintilaciones del mismo tipo que las de los electrones.

Con ayuda de un electroimán, el experimentador podía deflectar la irradiación y reunir en una misma parábola las partículas del mismo peso atómico. Entonces se produjo la gran sorpresa. Thomson había utilizado el neón y descubrió que de su cátodo abierto se desprendía una doble radiación positiva. «No cabe duda de que lo que llamamos neón no es un gas simple, sino la mezcla de dos gases, uno de los cuales tiene un peso atómico 20 y el otro un peso atómico 22.» Sin darse cuenta, Thomson acababa de descubrir los isótopos que en 1920 separó entre sí su colaborador Aston con ayuda de su espectrógrafo de masa.

Entre tanto, el estudio de la radiactividad natural iba a llevar a los científicos a realizar una hazaña con la que habían soñado los alquimistas de la Edad Media. En 1903 habían demostrado sir Frederik Soddy y sir William Ramsay que la radiactividad del radio iba acompañada de un desprendimento de helio. En 1907, Rutherford pudo establecer definitivamente la identidad de la partícula alpha con el átomo de helio ionizado, es decir, privado de sus dos electrones satélites, o dicho de otra manera del helio.

En 1919, Rutherford concibió la excelente idea de bombardear átomos de nitrógeno con ayuda de helios que circulaban a gran velocidad y emitidos en forma de rayos alpha por una sustancia muy radiactiva. Observó que de esta forma el nitrógeno se transformaba en oxígeno. Por primera vez, se había roto un átomo y sus elementos constitutivos habían engendrado otro cuerpo simple. ¡La transmutación no era ya un sueño de alquimista! Rutherford había salido airoso donde Bacon y Paracelso habían fracasado.

En 1913 emprendió Niels Bohr (1885-1962) la tarea de cuantificar el átomo. Adoptando el modelo de Ernest Rutherford y Jean Perrin, en otros términos, conservando las órbitas keplerianas circulares como trayecto ideal de los electrones, se dedicó a establecer un valor matemáticamente riguroso de todos los estados posibles de estas partículas ínfimas. Demostró sobre todo que pasando de un estado estacionario n1 a otro estado estacionario n2, el electrón emite un quantum de energía. Acababa de desvelarse el misterio de la electricidad. La experiencia no tardó en confirmar la exactitud de esta aplicación genial de las teorías de Planck. Pero como las órbitas circulares de los electrones presentaban serios inconvenientes, Sommerfeld reanudó en 1916 el trabajo de Bohr dando una forma elíptica a estas órbitas y utilizando los principios de la relatividad para tratar del movimiento de los electrones sobre sí mismos.

Dejemos ya el terreno de la pura teoría para volver a la desintegración del átomo. El principio según el cual se da cierta disipación de masa en algunos bombardeos atómicos, y esto en las condiciones previstas por Niels Bohr y Sommerfeld, iba a conducir a los científicos hacia una pista al mismo tiempo gloriosa y peligrosa. Hacia 1930 se advirtió que cuando se efectuaba una transmutación se liberaba una gran cantidad de energía. En efecto, los núcleos de los elementos formados tienen una masa menor que la de los elementos constitutivos.

Por tanto, hay algo que se disipa durante el proceso. Y si la pérdida de masa equivale al aniquilamiento de un solo gramo de materia, la energía liberada es igual a una cantidad de calor suficiente para hacer hervir instantáneamente 200 millones de litros de agua. En cierto sentido , no había en ello nada de nuevo, ya que no era más que la aplicación de la célebre fórmula de Einstein E = mc2.

Todavía faltaba por encontrar el proyectil que pudiera producir desintegraciones eficaces. Los alemanes Bothe y Becker y los franceses Frederic Joliot e Irene Joliot-Curie estudiaron la desviación sufrida por los rayos alpha cuando atraviesan delgadas capas de materia, y se observó que las partículas alpha que bombardean un metal ligero pero resistente, el berilio, originaban una irradiación paradójica, capaz de romper las más fuerte barreras de potencial y «de moverse libremente a través de la materia», como había predicho Rutherford en 1920. Entonces fue cuando James Chadwick pudo precisar en 1932 que esta irradiación debía estar constituida por partículas neutras de masa próxima a la del protón. Estaba descubierto el neutrón, la bomba atómica y la energía nuclear vendrían más tarde.

Entre tanto se había inaugurado la era de los desintegradores de átomos. Pretender alcanzar los núcleos atómicos con corpúsculos alpha, como lo habían hecho el matrimonio Curie y James Chadwick, equivalía a «disparar con carabina sobre cabezas de alfiler sembradas de 10 en 10 metros». Por supuesto que podían reemplazarse estos corpúsculos alpha por protones, pero, ¿cómo imprimir a éstos una velocidad suficiente? Desde 1931 había en la Universidad de Princeton un generador electrostático inventado por Robert van de Graaff y cuyo principio no difiere sensiblemente del de la máquina deWimshurst.

La aceleración de los protones se produce con ayuda de un transformador de alta tensión, situado en la base del aparato y que alimenta un peine que deposita sobre una correa que desfila bajo sus dientes cargas eléctricas que, transportadas hacia la parte superior del aparato, son recogidas por un peine colector. De esta forma se crea entre la base y la parte superior del dispositivo una diferencia de potencial de 80.000 V. en el primer modelo y llegó a 6 millones de voltios en las bombas del gigante instalado en Round Hill algunos años más tarde.

Ya en 1930, Ernest Orlando Lawrence había realizado otro aparato que habría de destronar poco a poco a los grandes aceleradores lineales: el ciclotrón. El principio es bastante simple: en el centro de un recipiente cilíndrico en el que unas bombas producen un vacío lo más perfecto posible se inyectan partículas atómicas bajo débil energía. Se coloca entre los polos de un electroimán, lo que engendra en su interior un campo magnético intenso.

Las partículas comienzan a girar en círculo, aceleradas a cada vuelta por los electrodos elevados a potenciales de muy alta frecuencia. Atraídas de un electrodo a otro, las partículas describen así una espiral a una velocidad creciente. Finalmente son desviadas hacia un blanco que contiene la sustancia que ha de ser bombardeada y desintegrada: berilio por ejemplo. Nuestros ciclotrones actuales permiten acelerar partículas a velocidades próximas a la de la luz y disponen así de energías suficientes para romper cualquier núcleo de átomo.

En 1932 no podía pensarse aún en estos esplendores. John D. Cockcroft y E. T. S. Walton, en el laboratorio Cavendish, tuvieron que contentarse con un duplicador de voltaje de 150.000 V. A fuerza de ingeniosidad consiguieron obtener 700.000 V. y terminaron por desintegrar núcleos de litio en dos helios, utilizando como proyectiles protones acelerados.

Gracias a la cámara de niebla inventada por C. R. F. Wilson entre 1899 y 1912, las partículas resultantes de la desintegración del litio pudieron ser localizadas por los experimentadores. Todos los manuales de física han reproducido el cliché de la desintegración del litio por Cockcroft y Walton. Todavía hoy nos impresiona este auténtico documento histórico.

El neutrón fue identificado en 1932 por Chadwick. lo que algunos años después permitiría la fisión nuclear. Había nacido un nuevo modelo de átomo. Todo núcleo aparecía como constituido de nucleones, es decir, de partículas positivas: los protones, y de partículas neutras: los neutrones. En torno a este agregado increíblemente denso de nucleones gravitan los electrones satélites cuyas cargas negativas, al menos en un átomo en equilibrio, equivalen rigurosamente a la suma de las cargas positivas de los protones. Sucesivamente, el núcleo del átomo se iría enriqueciendo con partículas ligeras: mesones, neutrinos, etc., sin hablar de las partículas de antimateria de que se hablará más adelante.

Volviendo a la fisión nuclear, el proyectil ideal resultaría ser el neutrón y el blanco elegido el uranio. El 14 de abril de 1934, Enrice Fermi descubrió que los neutrones ralentizados en la parafina provocan otras desintegraciones en el interior de otros átomos. Para llegar a la desintegración en cadena había que frenar la velocidad de los neutrones, transformarlos en neutrones térmicos. Esa es la misión del grafito y del agua pesada; pero no adelantemos los acontecimientos. El 15 de enero de 1934, los esposos Joliot-Curie provocaron la estupefacción de la Academia de Ciencias anunciando que acababan de descubrir la radiactividad artificial. Gradualmente se iban dando los pasos hacia la comprobación de que es posible introducir neutrones suplementarios en el interior de los núcleos y hacer fuertemente radiactivo un inocente fragmento de fósforo, de carbono o de cobalto. Habían nacido los radioisótopos y todo el mundo sabe lo mucho que se los utiliza en medicina y en industria.

No era eso sólo. En 1939 estalló una verdadera bomba en el mundo de la ciencia: Otto Hahn, Lisa Meitner, Strassmann y Frisch habían descubierto que el núcleo del uranio convenientemente bombardeado con neutrones se-rompe en dos liberando una energía de 100 millones de voltios. En su comunicación a la revista británica Nature del día 16 de enero, Lisa Meitner explicaba que, al igual que la gota de agua que ha ido creciendo, el núcleo de uranio no podía ya resistir y… explotaba.

Lo que ha sucedido después es ya del dominio público. No hablaremos de la batalla del agua pesada ni de la angustiosa rivalidad que enfrentó durante cinco años a los Aliados y al III Reich. Recordemos simplemente que a comienzos de 1940, el ingeniero Nier separaba, en la Universidad de Minnesota, del uranio-238 su precioso isótopo, el uranio-235; por supuesto que a una escala infinitesimal. Y que en 1941, el ilustre Fermi, premio Nobel de 1938, se instalaba en Chicago en donde montaba su primera pila atómica, que comenzó a «diverger» el 2 de diciembre de 1942, produciendo por primera vez dos elementos transuranianos: el neptunio y el plutonio, que ya en 1940 habían descubierto McMillan y Seaborg.

Recordemos también el famoso Manhattan Project, la primera explosión atómica del 16 de julio de 1945 en Alamogordo, y finalmente, las hecatombes nucleares de Hiroshima y Nagasaki, los días 6 y 9 do agosto de 1945. Como instrumento de muerte repentina, la bomba A era ya aceptablemente eficaz, pero más lo seria la bomba H «encendiendo sobre la tierra el fuego del sol y de las estrellas».

He aquí algunas explicaciones. Ya en 1934, algunos científicos habían reconocido el principio de la fusión del hidrógeno en helio, como fuente posible de energía. Una simple sustracción bastaba para demostrar que la reacción: 2/H + 2/H = 4/2 He  era «viable». En efecto, dos núcleos de hidrógeno pesado dan en conjunto 4,02516 unidades de masa mientras que el núcleo de helio que resultará de su «fusión» no tiene más que 4,00390. Hay, pues, un excedente de materia; 0,02126 unidad de masa y este excedente se traduce en una liberación de energía correspondiente a 500.000 KW/h. por cada molécula-gramo de helio.

Como esta reacción parecía más bien del dominio de un porvenir muy lejano, nadie habla de ella antes de 1950, excepción hecha del físico Vienes Hans Thirring, quien en 1946 la consagró un estudio bastante notable. En noviembre de 1952, el mundo quedó aterrado al saber que una bomba termonuclear de al menos 7 megatones había estallado en Eniwetok, haciendo desaparecer una isla de la superficie del mar y cavando en su lugar un embudo de 2 Km. de diámetro y 60 m. de profundidad. Después vino la demostración del 1 de marzo de 1954, en la que cinco pescadores japoneses fueron contaminados por la caída del polvo radiactivo (lluvia radiactiva). ¿Esta «Kraftprobe» tuvo el mérito de poner a científicos e ingenieros sobre la pista de un tipo de reactor más rentable que los de uranio que surgen por todas partes propulsando incluso submarinos y rompehielos atómicos? Sólo el futuro nos lo dirá.

La mayor dificultad que hay que vencer es la obtención de una temperatura llamada de fusión del orden de varios centenares de millones de grados; una proeza que es realizable durante una fracción de segundo, por medio de una prebomba de uranio, pero de la que todavía no son capaces ni la ingeniosa Zeta británica ni el extraordinario Slellarator americano.

Sin embargo, los métodos de «striction» y de «confinamiento» de un plasma que consiguen ya de 2 a 3 millones de grados no han dicho su última palabra, aun cuando los progresos hayan sido muy lentos desde 1958.

Volviendo ahora a la física pura, la encontraremos esencialmente ocupada en explorar este mundo extraño que es el núcleo del átomo y esa verdadera fantasmagoría que es la materialización de la energía. ¿Cómo explicar la paradójica densidad del «nucleus» y de las fuerzas que dan cohesión a los nucleones? Nada permite pensar que sean de naturaleza eléctrica.

Cuando en 1935 emitió el físico japonés Yukawa la hipótesis de un intercambio de mesones entre los protones y los neutrones de un núcleo, se vio obligado a admitir que estas partículas debían tener una masa 200 veces mayor que el electrón, pero que su «vida» era muy breve, de apenas una millonésima de segundo.

En mayo de 1937, el estudio de los rayos cósmicos en la cámara de Wilson revelaba la existencia de dos mesones, el segundo de los cuales asegura la cohesión de los nucleones entre sí, mientras que el primero parece escaparse por la banda dando nacimiento a un electrón. Diez años más tarde, durante el invierno 1947-1948, el gran sincrociclotrón de la Universidad de Berkeley consiguió producir mesones ir cuya trayectoria terminaba, sobre la placa fotográfica, en una soberbia estrella, prueba de que el mesón había encontrado un núcleo y que lo había hecho estallar.

¿Qué había sucedido? Entonces surgió la pregunta de si no se habría producido algo más y de si la violencia de la explosión no supondría la presencia de una de esas antipartículas que, por simples deducciones matemáticas, había previsto el físico inglés Pirac en una nota dirigida a la Sociedad Real de Londres con fecha 6 de diciembre de 1929.

La ecuación era tentadora. Podría representársela así:

en la que ¶ es un mesón pesado o, como se dice técnicamente, un hiperón, N un nucleón cualquiera, p un protón normal, es decir positivo, y p´ un protón negativo o antiprotón. Por supuesto que el par p y p´ no podían subsistir juntos sino que se aniquilaban recíprocamente.

En 1935 hubo quien pensó que el intermedio del mesón ¶ no hacía más que complicar las cosas y que, si se dispusiera de unos seis mil millones de electrones-voltios, quizá se pudiera crear directamente un «par» conforme a la fórmula siguiente:

Esta fórmula fue realizada en el laboratorio de Berkeley el 24 de octubre de 1955.

En el estudio de la radiación cósmica, fue una primera figura mundial el meteorólogo español A. Duperier, quien descubrió el «efecto positivo» de la radiación y contribuyó con una de las más importantes aportaciones al campo de la física en los últimos años con el cálculo de los fenómenos de interacción entre las partículas dotadas de altísima energía, y sus trayectorias, que expuso en el Congreso Internacional de Edimburgo de 1958. El descubrimiento del antineutrón, aunque erizado de dificultades, pudo realizarse en una fecha difícil de determinar.

En cuanto al electrón positivo o antielectrón, había sido descubierto antes de la segunda guerra mundial, ya que la obtención de un par (e y é) no exigió más que una energía relativamente baja, del orden de 1.0 millón de electrón-voltios aproximadamente.

El neutrino y el antineutrino han venido a completar la serie de los leptones o partículas ligeras. Atisbado unos veinticinco años antes por el físico Pauli, el neutrino no fue descubierto hasta 1958 gracias a los escintiladores instalados en Savannah River.

¿El neutrino es la partícula que, en el campo gravitatorio, corresponde al electrón en el campo electromagnético? Quien viva lo verá. Entre tanto, los físicos trabajan a contra reloj para descifrar los secretos de la materia y de la antimateria. Enormes aparatos han entrado en funcionamiento, especialmente el gran sincrotrón de protones del CERN (Centro Europeo de Investigaciones Nucleares). En 1961. este instituto procedió a millares de experimentos y tomó millón y medio de clichés que están actualmente en proceso de análisis.

Parece que se trata sobre todo de estudiar las interacciones de altas energías que implican las diversas especies de mesones, ya que ahí es donde en definitiva reside el secreto del átomo y del antiátomo. ¿Hacia dónde se encamina la física? El eminente científico francés Leprince-Ringuet confiesa que no sabe nada al respecto. «Os diré únicamente, declaraba, que estamos trabajando pero sin saber exactamente lo que vamos a hacer y, en el fondo, eso es lo agradable.»

Naturaleza de la Materia                                   Concepto Descriptivo Sobre la Conservación de la Energía

FOTOSINTESIS de las Plantas Respiración Celular Definicion Proceso

FOTOSINTESIS DE LAS PLANTAS – LA RESPIRACIÓN CELULAR

En la fotosíntesis ocurren importantes transformaciones: la energía lumínica es convertida en energía química y la materia inorgánica en orgánica. Este proceso biosintético es, quizás, el que mantiene la posibilidad de vida en nuestro planeta, pues el desecho metabólico que se libera a la atmósfera es el oxígeno, gas que respira la mayoría de los seres vivos.

INTRODUCCIÓN: Las plantas verdes que embellecen el paisaje son el punto de partida de la historia de la evolución de la vida sobre la Tierra. Su importancia, empero, llega más lejos aún. Si nos faltasen los vegetales no podríamos vivir, ya que son los únicos capaces de producir materia orgánica a partir de la inorgánica.

Esta tarea, aparentemente simple, no ha podido lograrse ni siquiera en los más modernos laboratorios con el auxilio de los últimos adelantos de la ciencia y la técnica. La tarea verdaderamente ciclópea de transformación que cumplen los vegetales supera con creces las necesidades del resto de los seres vivos, por lo que se afirma que se comportan como almacenes vivientes de energía. Solamente en un año, los vegetales transforman 300.000 millones de toneladas de carbono en materia orgánica. El noventa por ciento del total de este proceso ocurre en los océanos, mares y cuencas lacustres.

En el mundo vivo, los vegetales verdes se comportan como productores primarios, por las razones antedichas. Veamos ahora cuáles son las causas de esta propiedad excepcional. Ocurre que la clorofila, un pigmento «casi mágico» que les confiere a las hojas su color típico, combina con maestría la energía radiante que proviene de los rayos solares con el anhídrido carbónico y el agua, substancias que son fáciles de encontrar abundantemente en la naturaleza, para obtener compuestos de alto valor energético, como por ejemplo la glucosa. A todo este delicado mecanismo se lo conoce con el nombre de fotosíntesis y lo podemos detectar, repetido casi sin variantes, en las distintas especies que componen el reino vegetal.

Las únicas excepciones las constituyen algunas bacterias quimiosintéticas y los hongos, que por alimentarse con tejidos orgánicos en descomposición son llamados saprofitos (de sapros: putrefacto, y phyton: planta) en seres vivos como parásitas. Además existen plantas superiores (cuscutaa, ligas, etc.) que dan flores y carecen de clorofila; son plantas parásitas que viven de otras plantas.

Después de la realización de numerosos experimentos se logró establecer que la fotosíntesis es el resultado de la combinación del anhídrido carbónico con agua y con energía luminosa para obtener materia orgánica y oxígeno. Esta reacción se produce en los cloroplastos, corpúsculos que se encuentran en las hojas y tallos verdes de las plantas, y que vistos en el microscopio electrónico presentan unos cuerpos más diminutos aún, llamados grana, donde se aloja la clorofila.

FOTOSÍNTESIS: A diferencia de los animales, la mayoría de las plantas usa la luz para elaborar comida. Células especiales atrapan la luz del sol y la usan para producir azúcares simples y oxígeno a partir de dióxido de carbono y agua. Este proceso se conoce como fotosíntesis: la formación de un compuesto con ayuda de la luz.

Todas las plantas que usan fotosíntesis contienen un pigmentos importante llamado clorofila, que da color a las hojas ver des. La estructura química de la clorofila es similar a la de la hemoglobina de la sangre, excepto que la primera contiene magnesio y la hemoglobina, hierro. En cierta manera, ambas cumplen funciones similares. Por ejemplo, cada una interviene en su sistema propio con bióxido de carbono y oxígeno.

Las hojas absorben 83% de la luz que incide en ellas, pero usan sólo el 4% en la fotosíntesis; el resto se dispersa a través de las hojas en forma de calor. Las plantas que crecen a la sombra con frecuencia tienen hojas de un verde más intenso: sus hojas tienen una mayor concentración de clorofila para capturar más de la poca luz que reciben.

fotosintesis

La fotosíntesis es importante no sólo para las plantas. Sin ella, la vida animal nunca podría haber evolucionado ni podría continuar. Al producir alimento, las plantas absorben el bióxido de carbono de la atmósfera, factor importante para controlar el efecto de invernadero, y liberan oxígeno.

Las plantas de tierra elaboran sólo el 10% del oxígeno de la Tierra. Gran parte de él procede de una enorme gama de algas marinas. Por ello, así como conservamos la tierra, es necesario que conservemos limpios los océanos. Si las plantas marinas mueren, nosotros también lo haremos.

Más de la mitad de toda la fotosíntesis que se produce sobre la Tierra la realizan las algas microscópicas del océano —las diatomeas y los dinoflagelados—ósea, el fitoplancton. La otra contribución importante la realizan las grandes extensiones boscosas y selváticas.

El fitoplancton son los seres vivos de origen vegetal que viven flotando en la columna de agua, y cuya capacidad natatoria no logra nunca superar la inercia de las mareas, las olas, o las corrientes. Son organismos autótrofos capaces de realizar la fotosíntesis. Su importancia es fundamental dado que son los productores primarios más importantes en el océano.

fotosintesis

Explicación Científica de la Fotosíntesis: La fotosíntesis comprende dos fases. Una inicial o primaria, denominada fase fotoquímica, en la cual se realiza la captación energía luminosa y es necesaria la presencia de clorofila y agua. Las reacciones químico que se producen en esta fase dan como productos oxígeno, NADPH(nicotinamida adenina dinucleótido fosfato) y ATP (adenosina trifosfato) . Estos dos últimos compuestos químicos serán utilizados en la fase posterior o secundaria, denominada fase biosintética, para sintetizar materia orgánica, utilizando como fuente carbono al CO2.

Etapa fotoquímica. Es conocida como la etapa clara de la fotosíntesis, ya que en ella la luz solar es captada por los pigmentos fotosintetizadores que, en conjunto, constituyen foto sistemas. Éstos están ubicados en las membranas que forman los tilacoides. La clorofila A es el pigmento indispensable en el funcionamiento de los foto sistemas.

Los pigmentos auxiliares, como los carotenoides, las xantofilas y otros tipos de clorofila, contribuyen en la captación de haces luminosos de distintas longitudes de onda. Las moléculas que los constituyen se excitan con la luz (o sea, los electrones de las últimas capas de sus átomos saltan a un nivel superior de energía) y quedan oxidadas.

Al dejar de excitarse, ceden los electrones a la clorofila A que, ya sea por la luz directa o por este aporte, se excita también. Los electrones excitados de la clorofila A son recibidos por distintos aceptores, como los citocromos, la ferredoxina, la plastocianina, etc.

El último aceptor es el NADP.

La llegada de la luz a los tilacoides también desencadena la fotólisis del agua: H20 —-> O2+2H+ + 2e

Los electrones reducen a la clorofila A, los protones reducen al NADP y el oxígeno se libera como gas.

Como ganancia neta de esta etapa se obtienen moléculas de NADPH; además, en cada traspaso electrónico se libera energía, que es usada para sintetizar ATP a partir de ADP y fosfato inorgánico.

Etapa biosintética. También llamada ciclo de Calvin (por su descubridor) o etapa oscura. aunque esta denominación no es apropiada. ya que se desarrolla de día o de noche.

El ciclo de Calvin consta de una serie de reacciones enzimáticas a través de las cuales el carbono inorgánico del dióxido de carbono pasa a integrar una molécula orgánica, como puede ser la glucosa. Para esta transformación 25 necesaria la presencia de los productos obtenidos en la etapa fotoquímica: un agente reductor, como es el NADPH, y la energía que proviene del desdoblamiento del ATP.

18ATP + 6C02 + 12NADPH = 18 ADP + 18 Pi + 12 NADP + C6H1206

En las células eucariontes, las enzimas necesarias para este ciclo de reacciones están ubicadas en la matriz oestroma del cloroplasto. En las células procariontes, se encuentran disueltas en el citoplasma.

En la fotosíntesis ocurren importantes transformaciones: la energía lumínica es convertida en energía química y la materia inorgánica en orgánica. Este proceso biosintético es, quizás, el que mantiene la posibilidad de vida en nuestro planeta, pues el desecho metabólico que se libera a la atmósfera es el oxígeno, gas que respira la mayoría de los seres vivos.

La reacción permite que la energía lumínica «pueda transformarse en energía química potencial, presente en la molécula de glucosa (primer término después de la igualdad). Por cierto, en este «pase» hay una gran pérdida que, según se calcula, es del orden del 97 por ciento del total; pero, sin embargo, éste sigue siendo el único método que tiene la naturaleza para almacenar energía.

En la ecuación que anotamos, se está consumiendo constantemente anhídrido carbónico (CO2), en tanto que se libera oxígeno (O2). Esto determina la renovación del aire usado por los animales, ya que éstos realizan el acto inverso, es decir, liberan anhídrido carbónico y toman oxígeno.

Dos etapas, la que ocurre en la luz, primero, y la que se produce únicamente en su ausencia, luego, son las que comprende la fotosíntesis. En la etapa luminosa se separan los componentes del agua, resultando oxígeno e hidrógeno. Este último, como es muy inestable, es captado por compuestos intermediarios llamados aceptores, que le permiten combinarse, no sin dificultad, con anhídrido carbónico. Durante la etapa de la oscuridad se origina la molécula orgánica a partir del anhídrido carbónico, en un proceso mucho más lento que el anterior.

Se han efectuado experimentos con trazadores radiactivos, que son como «mensajeros» inyectados en el proceso, y fáciles de individualizar luego, para determinar cuál es el camino recorrido por los distintos elementos.

Procesos de tipo enzimático dan origen, a partir de aquí, a los carbohidratos, grasas y proteínas, constituyentes básicos del protoplasma de las células.

Usos de Bioimpresoras 3D Para Impresion de Organos Humanos

Uso de Bioimpresoras 3D – Impresión de Órganos Humanos

IMPRESORAS DE TECNOLOGÍA 3D: Estas impresoras pueden formar un objeto determinado siguiendo las instrucciones de un plano el cual le indica las tres dimensiones, es decir, largo, ancho y alto. Hacen mucho tiempo que existen pero hoy son una novedad por su maravillosas aplicaciones, su rapidez y precisión, a al vez que los precios la han hecho populares en los países desarrollado. Los críticos dicen que provocarán una nueva revolución industrial.

Fueron pensadas  para los viajes espaciales, en donde se necesita viajar liviano y por lo tanto es imposible llevar una cantidad grande de repuestos. Suponiendo que una pieza quede fuera de servicio, solo debe enviar los datos técnicos o plano de dicha pieza, y la impresora 3D se encarga del resto, pues en poco tiempo moldea otra pieza similar de iguales características.

Actualmente para hacer piezas de revolución como por ejemplo un engranaje, se utiliza un torno mecánico y una fresa, en donde se coloca un trozo de materia virgen y mediante una herramienta se va retirando material (mientras gira) hasta obtener la pieza final. Si se quiere algo mas romántico puede asemejarse con el trabajo de un artista cuando esculpe una roca para lograr su obra final, como dijo Miguel Ángel, solo me dedicado a sacar lo que sobraba, cuando creó La Piedad.

En el caso de estas impresoras el sistema es inverso, se van sumando capas de material hasta obtener el producto requerido según las indicaciones del plano, de ahí que también se llama tecnología de manufactura aditiva.  Han generado tanto expectativas que ya en la Argentina ya hay al menos tres firmas que están fabricando y vendiendo sus propias impresoras 3D.

En realidad por extensión se sigue utilizando el término «impresión», pero en realidad lo que se obtiene es un objeto de tres dimensiones, es decir que estás máquina crean cuerpos o volúmenes y el término impresión debería se reemplazado por otro mas adecuado, como por ejemplo: generar, crear, fabricar.

En mayo pasado un estudiante estadounidense  presentó Liberator, una pistola con 15 piezas compuestas por capas de plástico ABS, fabricadas en una impresora 3D. La restante pieza de hierro le da sentido al mecanismo, cuyo éxito se puede ver en video en Internet que busca generar conciencia en un país que aun se debate por la legalidad de la tenencia de armas de fuego. Apenas dos semanas después, la NASA anunció un proyecto de 100.000 euros, llamado Anjan Contractor, para profundizar el desarrollo para imprimir comida para sus astronautas.

En Argentina ya hay empresas dedicadas (Kikai Labs), a estudiar la aplicación de esta tecnología en los mas variados campos posibles, pero hay uno en que se tiene especial interés, cuya primera etapa podría decirse que ya está superada y consiste en crear (imprimir) prótesis para colocar en el cuerpo humano.

2.200. U$s es el precio promedio con que se pueden conseguir una impresora de este tipo para uso casero. Más allá del análisis sobre la ética de los derechos de autor, hoy se puede «imprimir» en un hogar una pieza averiada de una cafetera, o cualquier elemento de un artefacto hogareño. Los planos se descargarán desde Internet.

En traumatología ya experimentan con rodilla y caderas de titanio, mientras que entre los dentistas empieza a ser una práctica habitual reemplazar los moldes para las coronas o las placas de ortodoncia por la variante 3D, tanto en plástico como en cerámica. «Imprimir una prótesis no tiene mucha diferencia con imprimir un objeto de diseño, una silla o una mesa. En el fondo, es colocar material en una configuración determinada por el programa digital.

LA IMPRESORAS 3D Y LA «IMPRESIÓN» DE ÓRGANOS: El cirujano peruano Anthony Átala, Director del Instituto Wake Forestde Medicina Regenerativa, sorprendió al mundo científico el 3 de marzo de 2011, cuando presentó el primer riñón humano surgido en una tecnología de impresión 3D. No estamos hablando de un órgano de plástico, resina o aleaciones minerales, sino formado por células vivas.

Lejos de tratarse de una cruzada individual, hay toda una industria en ciernes en torno a la bioimpresión. La empresa estadounidense Organovo fue la primera en comercializar una máquina, laNovo Gen MMX y un gigante del mercado farmacéutico mundial como Pfizer ha confiado en su capacidad para reproducir tejidos, cartílagos y hasta tumores. Similares avances se producen en Inglaterra (tejidos con capacidad para imitar nervios y transmitir señales eléctricas, en la Universidad de Oxford) y en Rusia (buscan la producción en masa de hígados y riñones, en Skolkovo).

La tecnología avanza sin siquiera dejar tiempo al posible debate bioético que se abre. «En el mundo hay una crisis enorme por la falta de órganos. Es un hecho que el hombre ahora vive más. La medicina ha hecho un esfuerzo para lograrlo y así estamos ahora. Pero también es cierto que a medida que envejecemos, lo mismo sucede con nuestros órganos, que empiezan a fallar.

Por lo tanto, no hay suficientes órganos para trasplantar y cubrir las necesidades de la gente. Es por eso que aparece en escena el campo de la medicina regenerativa», expuso Átala en su mencionada conferencia, sin que surgieran voces para refutarlo.

Actualmente se vive una crisis de órganos para transplantar, pues la demanda se expande día a día, y no se alcanza a cubrir la necesidades de los afectados. Mediante esta tecnología, conocida como medicina regenerativa, se podrá conseguir órganos en corto plazo, creados a partir de una célula madre del paciente.

Las impresoras 3D constituyen uno de los mejores ejemplos de materialización de la revolución tecnológica esperada a partir de las tecnologías de convergencia, resultado de la interacción dinámica entre la nanotecnología, la biotecnología, la informática y la cognotecnología.

En las máquina se colocarán células madres, de origen embrionario, adecuadamente preparadas y se le dará la información necesaria para iniciar el proceso de creación de órgano deseado. Supongamos la necesidad de reparar una zona del cerebro dañada por un ACV.

 En un cartucho podría colocar el preparado de células adultas y los factores necesarios para que luego en el tejido se conviertan en neuronas, en otro cartucho colocaría nanotubos de carbono para integrarlos al tejido de modo de favorecer la conducción nerviosa hasta que en sistema neuronal se consolide.

Además, la impresora 3D ocupará un lugar destacado en un contexto productivo en el cual se pretende reemplazar a las fábricas químicas consumidoras de combustibles fósiles por biofábricas transgénicas celulares, fotosintéticas y catalizadas por enzimas, basadas el la utilización de la ingeniería genética y de los 65 millones de genes conocidos en la actualidad para producir sustancias químicas en general, alimentos y biocombustibles.

«Imprimir un órgano es como construir un enorme rascacielos pero a nivel microscópico,
utilizando diferentes tipos de células y otros materiales, en lugar de vigas de acero, hormigón y vidrio.»
Makoto Nakamyra, bioingeniero de la Universidad de Toyama» Japón.

CÉLULAS MADRES: En muchas ocasiones las enfermedades diezman las células de un tejido (así sucede, por ejemplo, con la enfermedad de Huntington y el Alzheimer).

Y hasta hace poco no se tenían esperanzas de poder recuperar esas vitales células perdidas. Las células madre, de las que tanto se habla últimamente, han cambiado esta triste situación, arrojando un informado rayo de esperanza. Para entender qué son las células madre hay que saber, en primer lugar, que muchas de las células —los «átomos» de la vida, de la humana  ciertamente (se conocen 216 tipos diferentes de células humanas)— del cuerpo sólo son capaces de reproducirse a sí mismas: una célula hepática, por ejemplo, sólo produce células hepáticas, pero nace a partir de una célula madre del embrión.

Por eso actualmente se conserva la placenta del recién nacido a los efectos tener la posibilidad en el futuro de conseguir una célula madre en caso de se necesaria para fabricar un órgano determinado.

 

USO DE LAS IMPRESORA DE TECNOLOGÍA 3D
ObjetosSe pueden crear y reproducir objetos en materiales plásticos con altísima resistencia y máxima precisión. Hay bases de datos privadas, como Thingiverse, con 36.000 diseños originales para descargar de Internet, así como también del otro lado se vislumbra un posible nuevo frente de conflictos por patentes y propiedad intelectual, como ocurre con la música y las películas. Asimismo, se reconfigura la relación del diseñador industrial con su creación, al mismo tiempo que se pueden «imprimir» objetos a gran escala como turbinas y edificios, entre otros.
AlimentosLa empresa estadounidense Modern Meadowya avanzó sus investigaciones para generar una hamburguesa en base a células vivas generadas de manera artificial. De manera paralela, el proyecto de nutrición para astronautas que encara la NASA, mezclando componentes universales, abre un mundo nuevo en cuanto a la geometría de la comida: los sabores ya no tendrán que corresponder con las formas y colores que conocemos.
MedicinaLa impresión en materiales sintéticos abre posibilidades para prótesis traumatológicas y se usa desde hace rato en la odontología en los países avanzados. Hace dos años se presentó en sociedad el primer riñón impreso en base a células vivas, mientras se desarrollan investigaciones similares en EE.UU., Rusia e Inglaterra sobre la reproducción de tejidos y piel humanos.
AgroMás allá de la «facilidad» con la que se podrá generar comida, no se vislumbran cambios dramáticos en el sistema de producción agropecuario. En cambio, la progresiva impresión de objetos en materiales más allá del plástico les dará a pequeños productores la posibilidad de construirse sus propias máquinas y tractores. Un movimiento que se llama «ecología a código abierto».

Un paradigma: medicina regenerativa o ingeniería de tejidos y el desarrollo de órganos artificiales más que una moda. Es a tendencia biomédica que extiende por el mundo. En Inglaterra, el bioingeniero Martín Wickham, del Instituto de Investigación Alimenta-, creó un estómago artificial capaz de simular la gestión humana: imita tanto las reacciones físicas como ; químicas que tienen lugar durante este proceso. La doctora Hung-Ching Liu de la Universidad de Cornell ultima los detalles del prototipo de un útero artificial donde un embrión humano pueda desarrollarse fuera del cuerpo de su madre. Y el profesor Jake Barralet de la Facultad de Odontología de la Universidad McGill en Montreal, Canadá, en cambio, es conocido por su obsesión por imprimir huesos.

1938: El biólogo francés Alexis Carrel publicó su libro El cultivo de los órganos, en el que ideó algunas de las mismas tecnologías utilizadas hoy para suturar vasos sanguíneos.

Años 90: El estadounidense Robert Langer hizo sus primeros aportes en el nuevo campo de la ingeniería de tejidos: creó piel humana para tratar a las víctimas de quemaduras, médula espinal para combatir parálisis, cartílagos y huesos artificiales.

1999: Se estrenó la película El hombre bicentenario. El protagonista -el robot Andrew (Robin Williams)- diseña prótesis de órganos para robots que también pueden ser utilizadas por seres humanos.

2001: Anthony Átala trasplantó con éxito en seres humanos vejigas sintéticas cultivadas en laboratorio.

2003: Thomas Boland, de la Universidad Clemson, modificó unas impresoras de chorro de tinta para imprimir proteínas con patrones especiales. «Este avance científico podría tener el mismo tipo de impacto que tuvo la imprenta de Gutenberg», dijo en su momento su colega Vladimir Mironov.

2008: El biofísico Gabor Forgacs logró imprimir venas humanas a partir de células de pollo.

2011: Paolo Macchiarini, del Hospital Universitario Karolinska, en Suecia, implantó una tráquea sintética en un hombre con cáncer traqueal avanzado.

2025: En ese año se sitúa la película Repo Men (2010). Cuenta la historia de dos oficiales encargados de reclamar órganos artificiales que no han sido pagados por sus usuarios. Estas creaciones recuerdan a los artiforgs u órganos artificiales imaginados por Philip Dick en sus novelas Cantata-140 (1964) y Ubik (1969).

Fuente Consultada:
Basada en la Información de Revista «El Federal»
Todo lo que necesita saber sobre ciencia Federico Kurko

Que son Celulas Madres Troncales Tipo de Celulas Etica y Moral

¿Qué son Células Madres? Tipo de Células -Ética y Moral

Llamamos células madre, o células troncales, a un tipo especial de células indiferenciadas que tienen la capacidad de dividirse indefinidamente sin perder sus propiedades y llegar a producir células especializadas.

CÉLULAS MADRES En muchas ocasiones las enfermedades diezman las células de un tejido (así sucede, por ejemplo, con la enfermedad de Huntington y el Alzheimer). Y hasta hace poco no se tenían esperanzas de poder recuperar esas vitales células perdidas. Las células madre, de las que tanto se habla últimamente, han cambiado esta triste situación, arrojando un informado rayo de esperanza.

celula madrePara entender qué son las células madre hay que saber, en primer lugar, que muchas de las células —los «átomos» de la vida, de la humana ciertamente (se conocen 216 tipos diferentes de células humanas)— del cuerpo sólo son capaces de reproducirse a sí mismas: una célula hepática, por ejemplo, sólo produce células hepáticas. Con las denominadas «células madre» es diferente: pueden generar distintos tipos de células.

El razonamiento es sencillo: si a partir de un grupo de células embrionales sin especialización se forma un organismo con más de 200 tipos distintos de células, manipulando la división de esas células originales (llamadas madre) se podrían generar todos los tejidos humanos y hasta producir autotrasplantes con mínimo riesgo. Si bien es una técnica en avance, los resultados están lejos de ser una realidad médica. Científicos de todo el mundo estudian su aplicación.

Una razonable definición de célula madre es la siguiente:  es una célula progenitora de otros tipos celulares, que posee dos propiedades básicas. La primera que cuando se divide, puede dar dos hijas iguales, y la segunda que puede diferenciarse en otros tipos celulares. Y de estas propiedades se sigue el corolario de que las células madre pueden colonizar y regenerar un tejido.

Desde el punto de vista puramente científico, esta clase de células plantea un profundo problema: ¿cómo es que es posible tal «ductibilidad»? ¿cuáles son los «detonadores moleculares» responsables de esa dinámica celular? Para responder a estas preguntas será preciso comprender el «mecanismo» de estas células, lo que constituirá un avance fenomenal. Sucede, sin embargo, que cuando se habla de células madre no se habla sólo, la mayor de las veces, ni siquiera fundamentalmente, de ciencia, sino de valores morales.

Aunque se pueden encontrar células madre en los adultos, parece que éstas suelen carecer de la habilidad que sí poseen las que se encuentran en los embriones: la capacidad de diferenciarse en cualquier tipo de célula. Por eso, a las células madre que se obtienen después de la formación de la mórula (embrión temprano que, durante el periodo de segmentación, tiene forma de una mora) se las denomina «pluripotentes», y a las que son anteriores a esa formación, «totipotentes». Y hay quienes consideran (muchos de ellos animados por creencias religiosas) que utilizar células madre totipotentes es como cometer un crimen, atentar contra la vida.

La célula madre pluripotente no puede formar un organismo completo, pero puede formar cualquiera otro tipo de célula proveniente de los tres linajes embrionarios (endodermo, ectodermo y mesodermo), así como el germinal y el saco vitelino.

Implantación: La idea de médicos y genetistas es poder proveer de células nuevas pluripotenciales a algunos tejidos dañados y provocar su regeneración. A la fecha, se ha logrado introducir células madre hematopoyéticas, obtenidas de cordón umbilical, a pacientes que sufren de disfunciones en la formación de glóbulos rojos. Es el equivalente a un trasplante de médula ósea sin intervención quirúrgica.

Desarrollo embrionario: El cigoto formado tras la fecundación de un óvulo por un espermatozoide es una célula capaz de generar un nuevo individuo completo. Se trata, pues, de una célula totipotente: capaz de producir un espécimen completo con todos sus tejidos.

Entre los días primero al cuarto del desarrollo embrionario, la célula original va dividiéndose en varias células más. Cada una de estas células, si es separada del resto, es capaz de producir un individuo completo. Son también células totipotentes.

A partir del cuarto día del desarrollo embrionario humano se forma el blastocito. El blastocito está formado por dos tipos de células y una gran cavidad interior:

Capa externa: forma la placenta y las envolturas embrionarias. Es el trofoblasto.

Masa celular: formará todos los tejidos del cuerpo humano. Se denomina embrioblasto.

Las células de un blastocisto ya no son totipotentes, puesto que una sola de estas células ya no es capaz de generar un individuo completo. Las células de la masa celular interna del blastocisto son células pluripotentes.

Estas células pluripotentes del interior del blastocisto son las células madre embrionarias, y tienen capacidad de originar cualquier tipo de tejido.Una característica fundamental de las células madre es que pueden mantenerse (en el cuerpo o en una placa de cultivo) de forma indefinida. Puesto que al dividirse siempre forman una célula idéntica a ellas mismas, siempre se mantiene una población estable de células madres.

ÉTICA Y MORAL: Sabemos que los valores morales son muy personales, y que es difícil poner de acuerdo a los que están a favor y a los que están en contra, aunque también todo se puede argumentar racional y compasivamente. Y tanto desde la racionalidad como desde la compasión, mi opinión es que debemos explorar con decisión este mundo científico, con la intención de utilizar lo antes posible (aunque aún transcurrirán algunos años en el mejor de los casos) todas sus posibilidades, para combatir el dolor y las enfermedades.

Una mórula es un agregado de células, sin ninguna característica, sin ningún tipo de sistema nervioso, por ejemplo, que la asimile a un ser humano. No soy el único, como pueden ustedes suponer, que defiende estas investigaciones. Así, James Watson, el codescubridor de la estructura en doble hélice del ADN, ha escrito: «A mi juicio, sería una tragedia para la ciencia y para toda la gente que al final se pueda beneficiar de la terapia con células madre el que las consideraciones religiosas impidan las investigaciones». La naturaleza ha sido generosa con nosotros ofreciéndonos esta posibilidad. Aprovechémosla, eso sí, con sabiduría y precaución.

«En diez años, los órganos trasplantados provendrán de células madre embrionarias.»
Irving Wek, Investigador de la Escuela de Medícina de la Universidad de Stanford.

UNA LLAMADA DE ATENCIÓN: El negocio de las células madre corre más rápido que la investigación científica: pese a que muchos estudiosos dudan de su utilidad, se multiplican las empresas y los charlatanes que ofrecen almacenar en bancos privados desde cordones umbilicales a dientes de leche, fluido menstrual e incluso grasa extraída mediante liposucción para un uso médico incierto en el futuro (el inefable «por las dudas»).

Las células madre incitaron un fenómeno reciente y del que se aprovechan aquellos que las promocionan con los más diversos y curiosos eslóganes como la «mina de oro de la biología», el «ungüento amarillo» o la «bala mágica» para reparar tejidos dañados: publicidades que siempre terminan por confundir realidad y ficción.

NUEVOS AVANCES DE LA MEDICINA:
CÉLULAS MADRE PARA REPARAR DAÑOS CARDIACOS
«La gente cree que las terapias con células madre están a 10 o 20 años de distancia, pero lo cierto es que se encuentran a la vuelta de la esquina», dice el doctor Joshua Haré, director del Instituto Interdisciplinario de Estudios sobre Células Madre de la Escuela Miller de Medicina de la Universidad de Miami.

A las células madre también se las llama a veces células generativas. Como tienen la propiedad de diferenciarse en la mayoría de los tipos de células del organismo, en teoría podrían ofrecer un suministro terapéutico ilimitado cuando se dañan los órganos corporales.

En 2009, Haré y sus colegas demostraron que se puede infundir células madre sin ningún riesgo a personas que han sufrido infartos, y hallaron pruebas de que este tratamiento ayuda a reparar los daños cardiacos. «Esta terapia aún es experimental —dice Haré—, pero es sumamente emocionante».

El equipo de Haré y algunos otros pasaron el año pasado compitiendo por lograr adelantos en este campo. Bob Nellis, vocero de la Clínica Mayo en Rochester, Nueva York, refiere: «En uno de nuestros estudios, 45 pacientes estaban tan enfermos que apenas podían hablar.

Ahora pueden recorrer sin dificultad una distancia equivalente a la extensión de una cancha de fútbol. Uno de ellos incluso empezó a tocar la trompeta. Lo más importante es la velocidad con que está sucediendo todo. Hoy por hoy es el campo de avances más rápidos en la biología humana». (Fuente: Revista Selecciones Abril 2011)

Turismo celular: Con las primeras noticias sobre las bondades de las células madre surgió también un negocio millonario: el «turismo celular». Y su principal destino es China, donde más de cien clínicas ofrecen -sobre todo a través de sitios en Internet- terapias de células madre no autorizadas a pacientes que pagan miles de dólares para recuperarse de innumerables trastornos o autismo, esclerosis múltiple, síndrome de Down, diabetes, cirrosis, distrofia muscular, enfermedades autoinmunes, lesiones óseas, disfunción eréctil y muchos etcétera.

Por cada inyección para tratar el mal de Alzheimer -con células que provienen de fetos abortados- cobran entre 3.600 y 6.000 euros. Un artículo recientemente publicado en la revista Nature comparó estos polémicos tratamientos con la práctica de la lobotomía hace casi un siglo. Estas estafas también abundan en Rusia, Tailandia y Japón.

CRONOLOGÍA:

1908 El ruso Alexandr Maksimov propuso el nombre de «células madre».

1960 Jospeh Altman descubrió la neurogénesis.

1978 Se descubrió que las células madre en la sangre del cordón umbilical humano son trasplantables.

1998 Fue encontrado el modo de obtener stem cells de embriones de ratones. James Thomson, de la Universidad de Wisconsin, EE.UU., consiguió realizar el primer cultivo de células madre embrionarias humanas.

2002 Se formó la Sociedad Internacional para la Investigación de Células Madre.

2003 Se descubrieron nuevas fuentes de células madre maduras en dientes infantiles.

2004 Hubo un anuncio falso de creación de células madre embrionarias: se trató de un fraude del científico coreano Hwang Woosuk.

2007 Un hallazgo casual en la Universidad de Pensilvania, EE.UU., logró devolver pelo a ratones heridos. Algunos laboratorios comenzaron a explorar el uso de células madre para curarla alopecia.

2009 Levantamiento del veto a la investigación con células madre embrionarias en EE.UU. Barack Obama revocó la orden de George W. Bush que prohibía usar fondos federales para ese tipo de investigación.

2012 Canadá se convirtió en el primer país en aprobar un fármaco con células madre, Prochymat, dirigido a tratar la enfermedad de injerto contra huésped (EICH) en niños, la principal causa de mortalidad relacionada con los trasplantes. Se crearon células madre a partir de la sangre. Se otorgó el Premio Nobel de Medicina al británico John Gurdon y al japonés Shinya Yamanaka, que descubrieron por separado cómo se pueden reprogramar las células.

Fuente Consultada:
Diccionario de la Ciencia de José Manuel Sánchez Ron
Todo lo que necesita saber sobre ciencia Federico Kurko

La Celula Humana Teoria Celular Partes y Características Definicion

La Célula Humana: Teoría Celular Partes y Características

PRIMERAS INVESTIGACIONES: ¡Cuántas maravillas pueden encontrarse en la naturaleza con sólo detenernos un minuto y contemplar a nuestro alrededor!. Sin embargo, todas estas manifestaciones observables a simple vista, no no muestra otros seres vivientes muchos más pequeños que nos rodean. Un cabello, una gota de sangre o los animales más diminutos que pueden hallarse en una cucharadita de agua de estanque, constituyen un verdadero espectáculo si sabemos mirarlos.

Obviamente los atributos de nuestra visión no alcanzan para penetrar en ese micro mundo y debemos recurrir a un aparato que aumenta las imágenes, llamado microscopio. Por intermedio de este instrumento tan valioso para los científicos pudo descubrirse que todos los seres vivientes¡ tanto animales como vegetales, están compuestos de unidades muy pequeñitas en forma de células (cuyo significado no es otro que «celda»).

Estas pequeñas estructuras gozan de gran autonomía, aunque, a pesar de ello, se especializan para cumplir distintas misiones e integran diversos tejidos de cada organismo. Hay seres que están compuestos de miles de millones de células mientras que otros, en cambio, son, en sí mismos, una sola de ellas. Si bien existe gran similitud entre las células animales y las vegetales, hay rasgos que las diferencian. Algunos elementos que tienen los vegetales en forma exclusiva son, por ejemplo, la membrana celulósica y los cloroplastos, de los que carecen los animales.

Casi al mismo tiempo que el naturalista inglés Hooke descubría, en el siglo XVII, las primeras células vegetales en un corte de corcho, se hicieron las comprobaciones que concluyeron con la demostración de que también los animales estaban dotados de esas raras «celdillas».

Algún tiempo después pudo probarse que las mismas no eran huecas, sino que tenían algo adentro. Ese «algo» se bautizó con el nombre de proto-plasma (tomado del griego: protos = primero; plasma = formación) y es reconocido como la sustancia fundamental en el proceso de la vida, pero antes de seguir veamos otros conceptos.

Salvo contadas excepciones, las células son diminutas. Su forma es muy variada: algunas son esféricas, otras son prismáticas y otras tienen forma cilíndrica. Básicamente, encontramos dos tipos de células: las células procariotas, sin núcleo, y las eucariotas, con núcleo. La célula es la unidad mínima de la vida. Para poder estudiarla necesitamos utilizar el microscopio. 

Forma y tamaño de las células: La forma de las células es muy variada: cilíndrica, esférica, estrellada, de disco, etc. Siempre tienen volumen, solo unas pocas son planas. En el ser humano existen aproximadamente 75 billones de células. Sin embargo, no todas poseen la misma forma.

Hay células cilíndricas, cúbicas, aplanadas (las células de la piel), esféricas (los glóbulos blancos), bicóncavas (los glóbulos rojos), fusiformes (las células musculares), estrelladas (las neuronas), etc. El tamaño de las células también es muy variable; una bacteria puede medir 1-2 micras, mientras que una célula nerviosa de ballena mide varios metros.

 La Célula Humana:

• La célula es la unidad mínima de un organismo, capaz de actuar en forma autónoma para mantenerse viva.

• Tiene capacidad de duplicarse por sí solas.

• Todos los organismos vivos están compuestos por células.

• Las bacterias y protozoos son organismo vivos que poseen sólo una célula.

• Los animales y plantas constan de millones de células organizadas en tejidos y órganos.

• Los virus que realizan muchas de las funciones de las células no son considerados seres vivos.

• Tienen formas y tamaños muy variados desde menos de 1 micra (millonésima parte de un metro) hasta de varios metros.

Composición Elemental:

Se compone básicamente de:

1- Un núcleo, que contiene uno o dos nucleolos. El núcleo se halla rodeado de una membrana llamada nuclear.

2- El Citoplasma, que contiene otros organoides y que rodea al núcleo. También contiene gran cantidad de agua. Este citoplasma está rodeado exteriormente por una membrana plasmática o celular, que la separa del ambiente circundante.

LA TEORÍA CELULAR:

Schleiden, en 1838, comunicó sus trabajos sobre la estructura microscópica de las plantas y concluyó que todas estaban formadas por células, y Schwann, en 1839, extendió esta conclusión a los animales. Surgió entonces la teoría celular, que tenía los siguientes principios:

1. Todos los seres vivos están constituidos por una o mas células; es decir, la célula es la unidad morfológica de todos los seres vivos.

2. La célula es capaz de realizar todos los procesos necesarios para permanecer con vida; es decir, la célula es la unidad fisiológica de los organismos.

3. Toda célula proviene de otra célula.

4. La célula contiene toda la información sobre la síntesis de su estructura y el control de su funcionamiento y es capaz de transmitirla a sus descendientes; es decir, la célula es la unidad genética autónoma de los seres vivos.

Esquema Básico de una Célula:

corte de una celula humana

Características del Núcleo:

En el núcleo se encuentra ‘la sala de comando» de la célula, es decir aquí se encuentra toda la información necesaria para su desarrollo y reproducción. Generalmente poseen un solo núcleo, pero pueden existir células con dos o más núcleos, o bien células sin núcleos como es el caso de los glóbulos rojos.

Membrana Nuclear: separa el citoplasma del carioplasma , es porosa y la cantidad y diámetro de los mismos depende de la actividad celular.

Nucleolo: es un cuerpo esférico pequeño que cambia constantemente de forma y tamaño. Puede haber uno o dos y posee grandes cantidades de ARN (ácido ribonucleico).

Carioplasma: es una sustancia viscosa como un gel y contiene sales, aminoácidos, enzimas, ácido nucleico, nucleóticos, etc.

Cromatina: es el material genético (ADN) y se presenta como un ovillo de hilo, y controla la actividad celular.

Citoplasma: El citoplasma es una sustancia rica en agua y posee organoides como: mitocondria, lisosoma, centríolos, vacuolas, etc.

Metabolismo:

En el interior de una célula se producen una serie de combinaciones químicas que les permite:

• Crecer.

• Producir energía.

• Reproducirse.

• Mantener su identidad.

• Eliminar residuos.

Al conjunto de estas reacciones químicas se les denomina: metabolismo.

Reproducción Celular:

Cada célula mantiene su proporción volumen/superficie, y cuando alcanzan un tamaño en que el volumen ha aumentado mucho en comparación a sus superficie, comienza un proceso de división llamado mitosis que crea otra célula con idénticas características de la primera.

El ADN que contiene el núcleo es el responsable de controlar el crecimiento, funcionamiento y reproducción de la célula.

El ARN y ADN son llamado ácido nucleicos porque fueron detectados por primera vez en el núcleo de células vivas.

ARN: ácido ribonucleico

ADN: ácido desoxirribonucleico y se cree que aparecieron sobre el planeta hace 3.000 millones de años, cuando surgieron las primeras formas de vida elementales.

Están en el núcleo y tiene dos funciones principales:

• Trasmiten las características genéticas a la siguiente generación.

• Sintetizan proteínas específicas, o sea producen las proteínas necesarias para su desarrollo. (las proteínas son una combinación de los 20 aminoácidos que existen en la naturaleza)

Estructura del ADN:

Cada molécula de ADN está constituida por dos cadenas o bandas formadas por un elevado número de compuestos químicos llamados nucleótidos. Estas cadenas forman una especie de escalera retorcida que se llama doble hélice. Cada nucleótido está formado por tres unidades:

• Una molécula de azúcar llamada desoxirribosa.

• Un grupo fosfato.

• Y uno de cuatro posibles bases nitrogenadas llamados: adenina (abreviada como A), guanina (G), timina (T) y citosina (C).

Los nucleótidos de cada una de las dos cadenas que forman el ADN establecen una asociación específica con los correspondientes de la otra cadena. Debido a la afinidad química entre las bases, los nucleótidos que contienen adenina se acoplan siempre con los que contienen timina, y los que contienen citosina con los que contienen guanina

La molécula de ADN es la portadora de la información genética, y esta información se halla en segmentos de ADN, llamados Genes.

Gen: es una secuencia de nucleóticos que codifica una proteína determinada.

En el núcleo el ADN se encuentra en hebras enmarañadas, y tiene como misión la de controlar la duplicación durante la mitosis, luego de producida la nueva célula, la cromatina se condensa y forma los cromosomas.

Cromosoma:: nombre que recibe una diminuta estructura filiforme formada por ácidos nucleicos y proteínas presente en todas las células vegetales y animales.

El cromosoma contiene el ácido nucleico, ADN, que se divide en pequeñas unidades llamadas genes. Éstos determinan las características hereditarias de la célula u organismo. Las células de los individuos de una especie determinada suelen tener un número fijo de cromosomas, que en las plantas y animales superiores se presentan por pares. El ser humano tiene 23 pares de cromosomas.

En estos organismos, las células reproductoras tienen por lo general sólo la mitad de los cromosomas presentes en las corporales o somáticas. Durante la fecundación, el espermatozoide y el óvulo se unen y reconstruyen en el nuevo organismo la disposición por pares de los cromosomas; la mitad de estos cromosomas procede de un parental, y la otra mitad del otro. Es posible alterar el número de cromosomas de forma artificial, sobre todo en las plantas, donde se forman múltiplos del número de cromosomas normal mediante tratamiento con colchicina.

Mediante un proceso llamado MEIOSIS, a partir de la célula madre se obtienen 4 nuevas células con la mitad de los cromosomas, de las cuales 3 se degeneran y queda sólo una gameta, denominada óvulo en la hembra y espermatozoide en el hombre.

Ampliación Cromosomas: Hemos dicho que el núcleo es el que controla la célula; no solamente el trabajo, sino también su formación y estructura. El nucleoplasma contiene una cierta cantidad de un material denso, que en ciertos períodos (asociados con la reproducción de la célula) se hace más visible en forma de trazos.

Este material constituye los cromosomas. Con algunas importantes excepciones, todos los núcleos de las células humanas tienen 46 cromosomas. Cada uno puede acoplarse con otro de forma que realmente lo que hay son 23 pares de cromosomas.

Las células de ratón tienen 20 pares, mientras que las de guisante tienen 7 pares. Morgan y otros investigadores encontraron que la mosca de la fruta, Drosophila, tiene en sus glándulas salivares cromosomas gigantes. Descubrieron que estos cromosomas poseen determinadas zonas claras y oscuras, que ahora se saben representan los genes. Éstos son las unidades básicas de la herencia.

Cada gen, o grupo de genes, controla una apariencia del cuerpo; por ejemplo, el color del pelo. Se piensa que cada gen está compuesto de complicados ácidos nucleicos, como el desoxirribonucleico (DNA). Pequeños cambios en la composición o disposición de las moléculas ocasionan variantes en los efectos del gen. La estructura complicada del gen le permite almacenar una gran cantidad de información. Lo que hemos dicho anteriormente es sólo un esbozo de los

FUNCIONES DE NUTRICIÓN: La célula está en constante actividad y en su interior se realizan continuamente complicadas reacciones fisicoquímicas, necesarias para el mantenimiento de la vida. Se da el nombre de metabolismo al conjunto de todas estas reacciones, que comprenden dos procesos contrarios: uno, constructivo de asimilación (anabolismo), y otro, destructivo, o de desasimilación (catabolismo). Para que la asimilación se verifique, es necesario la penetración en la célula, desde el exterior, de determinados materiales que se trasforman después en sustancias propias.

Existen muy pocas células que puedan tomar como alimento cuerpos sólidos; la mayoría se nutren por absorción de sustancias líquidas, o disueltas a través de la membrana.

Estas sustancias son luego sometidas a digestiones intracelulares, para poder entrar a formar parte de la materia viva. El proceso de desasimilación pone después en libertad la energía de que son portadoras estas sustancias. Como consecuencia de estas desintegraciones se producen materiales inservibles para la célula, que ésta expulsa al exterior mediante el proceso de excreción.

Existen células que pueden asimilar el carbono del CO2 a partir del aire, y formar compuestos carbonados; se denominan autótrofas y son todas las que poseen clorofila. Existe un corto número de células autótrofas que no poseen clorofila; entre ellas están las bacterias nitrificantes y sulfídricas. Las células que no pueden asimilar el C02 se ven obligadas a ingerir sustancias carbonadas, y se llaman heterótrofas.

DIVISIÓN DEL TRABAJO FISIOLÓGICO
Los organismos que nos son más conocidos son pluricelulares. En un organismo unicelular como, por ejemplo, la ameba, su única célula realiza todas las funciones necesarias para la vida. En cambio, en un organismo pluricelular, grupos de células asociadas se encargan de realizar una sola función, y esto trae consigo una división del trabajo fisiológico. Así, por ejemplo, en el hombre, para realizar una función hay diversos órganos, y cada uno está constituido por células asociadas y diferenciadas, especialmente aptas para su trabajo respectivo. Las masas de células formadas por la asociación de éstas en un orden constante, con propiedades estructurales, fisiológicas y químicas semejantes, se llaman tejidos.

La especialización de las células
En en cuerpo humano podemos observar muchos tipos de células especializadas. Por ejemplo, los glóbulos rojos de la sangre están especializados en transportar el oxígeno y llevarlo a las demás células del cuerpo. Las células musculares del corazón se han especializado en el movimiento: se contraen y se relajan continuamente, de manera que el latido cardíaco se mantiene durante toda nuestra vida. Las neuronas o células nerviosas se dedican a transmitir y almacenar información

PASAR EL MOUSE SOBRE LAS PARTE DE LA CÉLULA:

CÓMO SE ESTUDIAN LAS CÉLULAS Y LOS TEJIDOS
Existe una serie de técnicas para preparar los materiales a observar; aquí citaremos solamente algunas.

Fijación. La observación se realiza matando las células por medio de líquidos especiales llamados fijadores. Después, en general, se cortan con ayuda de instrumentos especiales, llamados micrótomos.

Coloración. Después de obtenidos los cortes, se tiñen con determinados colorantes. Unos tiñen el núcleo, otros los cromosomas, etc.

Microdisección. Con esta técnica se pueden eliminar determinadas partes de las células y tejidos, mediante aparatos especiales, llamados micromanipuladores. que se colocan en el microscopio y se accionan mediante tornillos.

Microforografíca La fotografía presta también grandes servicios a la investigación, en este campo. Se coloca una cámara adaptada al microscopio, y se la ilumina adecuadamente. Naturalmente, existen otros procedimientos para la observación de células y tejidos; pero sólo hemos descrito los más importantes.