Primeros Plásticos

Anticongelantes: Uso de Etilenglicol Baja Punto de Congelamiento

ETILENGLICOL: PARA BAJAR EL PUNTO DE CONGELAMIENTO DEL AGUA

En los climas intensamente fríos, los automóviles pueden sufrir averías si no se toman medidas para protegerlos. El radiador y el bloque de los cilindros (bloque del motor) son las partes afectadas en primer lugar. Si el agua que contiene el bloque de los cilindros llega a congelarse, éste se parte, del mismo modo que los conductores de agua cuando el líquido que contiene se hiela. El hielo es menos denso que el agua y, por tanto, cuando éste se congela, convirtiéndose en hielo, ocupa un volumen mayor.

En el radiador de un automóvil, el agua está encerrada en un espacio limitado. El metal no puede dilatarse; de hecho, se contrae cuando disminuye la temperatura. Así, cuando el agua se congela, el sistema refrigerante está sometido a una presión interior, puesto que aquélla se expande, haciendo lugar para el hielo; el bloque de los cilindros o el radiador no pueden soportar esta tensión y se rompen.

Estas roturas son costosas, pues la dificultad de la reparación obliga a sustituir las piezas. Una vez que se ha roto el bloque, el sistema de refrigeración del motor deja de funcionar y, si se usa el coche en estas condiciones, el motor se sobrecalienta, expulsando chorros de vapor de agua.

Por esto, resulta muy importante que el agua del sistema de refrigeración no se congele, aunque la temperatura externa descienda por debajo de O° C. Hay que añadir alguna sustancia que rebaje el punto de congelación. En otras palabras, al agua de refrigeración debe añadírsele un anticongelante.

Cuando se añade al agua un poco de sal, el punto crioscópico (punto de congelación) baja ligeramente. Si añadimos más sal, dicho punto sigue descendiendo.

La adición de una impureza tiene, pues, el efecto de hacer descender el punto de congelación. Aunque con sal se puede conseguir este efecto perfectamente, no se usa nunca como anticongelante por su fuerte poder corrosivo, que atacaría rápidamente el metal del radiador. Normalmente, se usa el compuesto orgánico etilénglicol.

Éste es muy eficaz para disminuir el punto de congelación del agua de refrigeración. Al contrario que la sal, no es nada corrosivo y, por tanto, puede usarse sin peligro de dañar el radiador. Los anticongelantes que compran los automovilistas contienen, fundamentalmente, etilénglicol, junto con un pequeño porcentaje de otros compuestos químicos, que actúan como inhibidores (antioxidantes), protegiendo de la corrosión el interior del radiador.

Los antioxidantes son muy necesarios, porque la misma agua es un agente corrosivo que puede atacar la superficie metálica, si no lo evitamos. Aunque se podría usar el mismo glicol indefinidamente, los antioxidantes tienden a perder su eficacia.

Por tanto, es aconsejable usar anticongelante nuevo cada invierno, para impedir la corrosión del radiador.El anticongelante se mezcla con agua y, una vez diluido, se vierte en el radiador. Una solución con un 25 % de glicol en volumen tiene un punto crioscópico de — 12,8° C, y es la adecuada porque no resulta fácil que la temperatura descienda por debajo de este punto. Este tipo de mezcla, naturalmente, no se puede usar dentro del Círculo Polar Ártico, donde la temperatura desciende, con frecuencia, por debajo de —12,8° C.

Se necesita, por tanto, un líquido cuyo punto de congelación sea mucho más bajo. A medida que se va aumentando la proporción de glicol, el punto crioscópico desciende hasta un cierto límite, desde el que empieza a subir nuevamente. El punto de congelación más bajo que puede obtenerse con una mezcla de etilénglicol y agua es — 44° C. Se trata del punto crioscópico de una mezcla al 50 % de glicol y agua.

Para las condiciones extremas del Ártico se añade una pequeña cantidad de éter de glicol. Así se consigue que el punto descienda hasta — 68° C. Casi todos los sistemas de refrigeración de los automóviles que -circulan actualmente pueden ser vaciados o llenados por sus dueños, pero la tendencia moderna es que estén precintados y que su contenido sea renovado solamente cada dos años.

El radiador se llenará y precintará en la fábrica, usando una mezcla más concentrada que las habituales. Se utiliza una mezcla al 50 % de glicol y agua, que hace descender el punto crioscópico hasta — 44° C. De este modo, los autos pueden funcionar en cualquier país. Los antioxidantes plantean problemas, pero se están llevando a cabo investigaciones para prolongar su período de actividad. Con mejores antioxidantes, no sería necesario cambiar el anticongelante tan frecuentemente.

En el gráfico se observa: A medida que se va añadiendo más etilénglieol al agua, el punto crióscopico desciende gradualmente. El refrigerante del radiador puede elaborarse de tal forma que siga estando liquido por debajo de O°C. Esto no se puede conseguir indefinidamente. Cuando se añade mucho glicol, el punto crioscópico se eleva de  nuevo, como se vé en la línea roja de la derecha.
grafico etilenglicol

Fuente Consultada
Revista TECNIRAMA N°113 Enciclopedia de la Ciencia y la Tecnología

Historia del Transistor Sus Inventores y Aplicaciones

Historia del Transistor ,Inventores y Aplicaciones

DEFINICION: El TRANSISTOR  es un dispositivo electrónico constituido por un pequeño bloque de materia semiconductora que cuenta con tres electrodos emisor, colector y base. En su fabricación se usa germanio o silicio como elemento fundamental. Se utiliza para rectificar y amplificar los impulsos eléctricos y sustituye ventajosamente a la antigua válvula eléctronica.

esquema de un transistor

Todos los fenómenos en que intervienen electrones quedan englobados dentro de la denominación Electrónica, si bien, a menudo, ésta queda reducida al estudio de los tubos de vacío. Con las válvulas electrónicas, tal como apuntábamos al hablar de las primeras computadoras , la vida actual ha cambiado. Disponemos de radio, televisión, calculadoras, celualres, robots, etc., y cada día se nos ofrece nuevas sorpresas.

Para tener una conducción apreciable de electricidad en un vacío elevado es necesario disponer de iones. El procedimiento más generalizado para la producción de estos iones es la emisión termoiónica.

En todo conductor metálico, además de las propias moléculas, existen electrones libres. Si se aumenta la temperatura del conductor, estos electrones adquieren velocidades suficientes para escapar del metal, fenómeno que depende de la naturaleza de éste y del estado de su superficie.

Alrededor del conductor se forma una «nube» de electrones que rechaza los nuevos electrones emitidos por el metal, que a su vez son atraídos por éste, provocando el cese de la emisión.

Los extraordinarios progresos experimentados en el campo científico repercutieron en el terreno de la tecnología con inventos que, en algunos aspectos, han ido transformando la vida del ser humano. Una diminuta lámina de cristal de germanio, con dos electrodos puntiformes, que integran un transistor, se constituyó en un verdadero corazón de múltiples aparatos, desde pequeñísimas prótesis para sordos, hasta los que rigen la vida de los satélites.

Imágenes de los primeros transistores

imagenes de los primeros transistores

publicidad antigua valvula electronica

Publicidad antigua valvula electronica

TRANSISTORES. La corriente de electrones que fluye en el interior de un tubo o válvula se ha visto que también se produce a través de ciertos sólidos como el metal llamado germanio. Con la particularidad de que no requieren placa, rejilla, calefacción del cátodo ni vacío alguno.

Amplían muchísimo la corriente y pueden funcionar con baterías de una cienmilésima de vatio. Su vida es larga y su tamaño es muy pequeño. Se conocen con el nombre de transistores. Su defecto más acusado consiste en que no trabajan bien con altas frecuencias.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

HISTORIA E INVENTORES: Tres eminentes investigadores: John Bordeen -premio Nobel-, Walter Brattain y William Shackley, dieron nacimiento al transistor, que por su reducido tamaño, su bajo precio y su economía, ha resultado insustituible en los sistemas de telecomunicaciones, tele-mediciones, etc.

Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

 

inventores del transistor

Bardeen, Shockley y Brattain, inventores del transistor

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Entre todos los avances e inventos de la postguerra podría mencionarse en el campo de la electrónica,  uno de los descubrimientos que revolucionó al mundo, constituido, en un principio, por una diminuta lámina de cristal de germanio, con dos electrodos metálicos puntiformes, uno de ellos polarizado en sentido directo, emisor, y otro en sentido inverso, colector.

Este diminuto artefacto, si así se lo puede llamar, no es nada menos que un transistor primitivo, que ha sido reemplazado por otro perfeccionado llamado transistor, adoptado universalmente.

Hace algo más que un cuarto de siglo, el 23 de diciembre de 1947, tres eminentes investigadores crearon el transistor. John Bardeen, dos veces premio Nobel por sus contribuciones sobre física teórica; Walter Brattain, especialista en superficies sólidas, y William Shockley, que ya se había destacado por sus trabajos en electrónica, dieron nacimiento al transistor.

Y uno de los primeros empleos, que asombró a todos sin excepción, fue el de las radios, que desde ese momento pudieron funcionar en diminutos aparatos sin necesidad de la corriente eléctrica. Como amplificador de señales de amplitud variable, el transistor sustituyó bien pronto, con extraordinarias ventajas, a la válvulas electrónicas.

En muy poco tiempo, el transistor fue invadiendo todas las actividades en que, por su uso, podía sustituir a los tubos electrónicos, por su tamaño reducido, su bajo costo, su fácil manejo. Además, su fabricación en serie ha puesto a disposición del mercado mundial transistores en una’ abundancia asombrosa.

Basta decir que, en un solo año; Estados Unidos logró vender a Europa y al Japón más de nueve mil millones de transistores. Desde la guitarra eléctrica hasta las pequeñísimas prótesis que los sordos introducen en sus oídos para escuchar los sonidos, hasta los marcapasos y las extraordinarias telecámaras de las cápsulas espaciales, computadores y satélites funcionan ya a transistores.

Representa el verdadero corazón de todos estos artefactos, desde el más pequeño hasta el más grande.

Para poder dimensionar el valor en toda su magnitud de este descubrimiento, es necesario aclarar que es fundamental la diferencia entre la electricidad y la electrónica; Mientras la primera se vale de electrones —esas partículas infinitesimales que gravitan alrededor del núcleo del átomo de una manera masiva— la electrónica entra en el detalle.

Es decir, de electrones por grupos pequeños, a veces de a uno. Antes de la guerra, para gobernar estos flujos electrónicos tan ínfimos existía un solo dispositivo, la lámpara de radio inventada por Lee De Forest, en 1906.

Los cristales de silicio y germanio, cuyas estructuras son similares a la del diamante, permitieron la creación del transistor. En estos materiales, cada electrón está como prisionero en una determinada posición, y no puede moverse. Sin embargo, una vez liberado, se halla en condiciones de atravesar el sólido y convertirse en transportador.

Además, los cristales de silicio y germanio ofrecen la posibilidad de que el electrón liberado deja un «agujero» en la posición que antes ocupaba. Este vacío se comporta exactamente igual que una carga positiva, y está en condiciones de trasladarse de un átomo al otro.

De esta manera, los electrones funcionan como cargas negativas y los «agujeros» como positivas.

transistorEl secreto del transistor consiste en que, una vez obtenido el materia] muy puro, se lo convierte en conductor, introduciendo la necesaria cantidad de impurezas en los lugares precisos.

Los transistores fueron reemplazando progresivamente a las válvulas, y en todos aquellos aparatos, dispositivos e instrumentos en que se empleaban éstas, se sustituyen por aquéllos.

Así, con las notables ventajas que reportaron se introdujeron en todos los sistemas de telecomunicaciones, telemediciones, telecomandos y teleseñalizacíones.

Transistor Western Electric 2N110 de la década de 1960

Las radios, la televisión, las calculadoras electrónicas, los oscilógrafos, los voltímetros, los distintos instrumentos que se utilizan en el amplio campo de medicina para controlar las intervenciones quirúrgicas, etc.

No se considera que un aparato es moderno, si no ha sido transistorizado, porque representa extraordinarias ventajas en su uso, sus resultados, su manipuleo y en su economía.

El ingenio humano, que no se detiene ni siquiera ante obstáculos que a veces parecen insalvables, ha tratado siempre de ahorrar tiempo, lo que representa dinero, y simplificar las tareas, hacerlas más rápidas y accesibles.

Eso y mucho más representan las computadoras, una de las maravillas más detonantes del siglo XX.

Estas máquinas que realizan las operaciones matemáticas que la mente humana tardaría horas en concretar, y no siempre con exactitud, están prestando un imponderable beneficio a la humanidad, porque han permitido resolver no sólo operaciones de este tipo, lo que ya es mucho, sino también encontraron solución a numerosos problemas de trabajo; se han introducido en el campo de la medicina, en la vida diaria del hogar, y el hombre no habría podido enviar satélites, y menos haber descendido en la Luna, si no hubiera contado con esta prodigiosa conquista.

Los primeros recuerdos sobre la evolución de las máquinas computadoras indican cómo la lógica fue introducida en el cálculo.

Las primigenias máquinas, como la de Pascal, no efectuaban nada más que operaciones aritméticas aisladas; el encadenamiento de las distintas operaciones que daban como resultado el cálculo completo, quedaban enteramente en manos del usuario de la máquina.

El proceso se efectuaba tal como se hace en la actualidad con las máquinas de teclado.

Durante la Segunda Guerra Mundial aparecieron las calculadoras electromecánicas y, posteriormente, las electrónicas, capaces de encadenar las operaciones.

De esta manera, se logró que la máquina ejecutara una serie de operaciones cuya secuencia es conocida de antemano y, además, cierta selección de operaciones, en función de los resultados parciales obtenidos en el curso.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

LOS ENLACES QUÍMICOS EN LA ELECTRÓNICA: Gracias a las propiedades que les confieren, entre otros, los enlaces que son capaces de establecer, algunos elementos químicos tienen múltiples usos en la vida cotidiana.

El silicio, por ejemplo, es un metaloide brillante, gris azulado. Forma el 26% de la corteza terrestre como sílice (SiO2 ) y silicatos. No existe en estado libre en la naturaleza y se prepara por reducción del sílice de la arena a elevadas temperaturas. El silicio forma parte de las arcillas, vidrios, cementos, siliconas.

En los últimos años, la demanda de este metaloide, así como de germanio y de selenio, se incrementó debido a que se utilizan para fabricar transistores y circuitos integrados. En el caso de los transistores se aprovecha la capacidad de semiconductor del silicio.

El cristal de silicio prácticamente no conduce la corriente eléctrica, porque muy pocos electrones tienen la energía suficiente como para escapar de sus átomos. Sin embargo, el agregado cuidadoso de impurezas lo convierte en conductor. Para comprenderlo, es preciso analizar la teoría de las bandas.

Según esta teoría, en una cristal, tal como ocurre en los átomos aislados, los electrones se ubican en niveles o «bandas» respecto de los átomos, pero, a diferencia de los átomos en los cuales estos niveles están bien diferenciados unos de otros, en los sólidos las bandas son continuas unas de otras.

Cuando los electrones se encuentran en la banda más cercana al átomo, llamada banda de valencia, el cristal no conduce la electricidad; en cambio, si se encuentran alejados del á-tomo, en la banda de conducción, el cristal conduce la eletricidad.

En los metales, ambas bandas están pegadas una con otra, y el pasaje de electrones es sencillo. En los no metales y en los semiconductores existe una gran diferencia de energía entre ambas.

Cuando el silicio se contamina con un elemento que tiene un electrón más en su nivel más externo, el electrón sobrante no se une a los electrones del silicio y queda libre para moverse dentro del cristal, alcanzando la banda de conducción.

Se forma así un material llamado semiconductor tipo n. Por el contrario, si el contaminante que se agrega es boro (que tiene un electrón menos), la banda de conducción baja su nivel energético y «se acerca» a la banda de valencia, permitiendo la conducción a través de los «huecos» vacantes. El material formado es un semiconductor tipo p.

Con los materiales semiconductores se fabrican transistores, que son componentes electrónicos que permiten o no el paso de la corriente eléctrica. En 1960 se creó un sistema capaz de tallar, mediante técnicas fotográficas, cientos de transistores en un pequeño bloquecito plano de silicio: se inventó así el primer circuito integrado o chip.

En la actualidad, se construyen chips mucho más complejos llamados microprocesadores, capaces de leer y actuar de distinto modo según las necesidades del usuario. Estos componentes electrónicos pueden manejar la información de dos maneras diferentes:

Los componentes analógicos traducen magnitudes que varían constantemente en señales amplificadas que se modifican de la misma manera. Se usan, por ejemplo, en amplificadores de audio y sintetizadores.

Los componentes digitales reciben, comparan y procesan información en forma de pulsos eléctricos. Las señales de entrada y de salida sólo pueden tomar determinados valores, que se combinan para formar códigos.

Estos componentes forman el sistema binario y se emplean en todos los sistemas computerizados. (Fuente: Química I Alegría-Bosack-Dal Fávero-Franco-Jaul-Ross)

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

ALGO MAS DE HISTORIA DEL TRANSISTOR:

Cuando la radio estaba en su infancia, se utilizaban cristales como rectificadores, permitiendo a la corriente alterna fluir en una sola dirección. Estos receptores de galena eran muy rudimentarios, por lo que fueron reemplazados por aparatos provistos de lámparas. Éstas habían venido usándose también en varios instrumentos electrónicos, incluidos los nuevos ordenadores, durante más de cuarenta años.

antigua radio a galena

Pero las lámparas de radio tienen que ser lo bastante grandes como para encerrar un vacío. Son frágiles, tienen fugas y deben ser reemplazadas a menudo. También gastan mucha energía, y hay que esperar a que el filamento se caliente antes de que el aparato empiece a funcionar.

En 1948, los físicos William Bradford Shockley (1910-1989), Walter Houser Brattain (1902-1987) y John Bardeen (1908-1991) —todos ellos norteamericanos, aunque Shockley era de origen británico— descubrieron un nuevo tipo de cristal.

Consistía mayormente en germanio, peor conductor de la electricidad que los metales, pero mejor que los aislantes, como el vidrio y el caucho. El germanio y el silicio, que pocos años después reemplazó al anterior, por ser más barato y mejor, se consideraron ejemplos de semiconductores.

Si se añadían cantidades mínimas de impurezas al semiconductor, el cristal podía actuar como rectificador o como amplificador. En definitiva, podía realizar cualquier función propia de las lámparas.

Esos semiconductores eran sólidos (de ahí que se hable de dispositivos de estado sólido) y no requerían vacío, de manera que podían ser muy pequeños. No necesitaban ser sustituidos nunca.

Gastaban muy poca energía y no precisaban de calentamiento previo, con lo que su funcionamiento era inmediato. Un compañero de trabajo, el ingeniero norteamericano John Robinson Pierce (1910-2002), sugirió el nombre de transistor, porque transmitía la corriente a través de un «resistidor».

Con el tiempo, los transistores reemplazaron por completo las lámparas. Los transistores y los perfeccionamientos que siguieron podrían muy bien considerarse como el avance tecnológico más significativo del siglo XX.

Que son las Vitaminas A,B,C,D,E Tipos, Funciones y Características

Que son las Vitaminas A,B,C,D,E
Tipos, Funciones y Características

1-Vitaminas Liposubles e Hidrosolubles

2-Procedencia de las Vitaminas

3-Vitaminas A,B,C,D,E y sus Funciones

4-Historia de las Vitaminas

5-Tabla de Vitaminas y Características

6-Historia del Descubrimiento de las Vitaminas

7-Vitaminas Mas Importantes Para El Hombre

Que son las Vitaminas A,B,C,D,E Las vitaminas son compuestos sin valor energético, con componentes  que el organismo necesita  para funcionar correctamente, tener una buena salud física y mental, y conseguir un crecimiento adecuado. Son compuestos orgánicos distintos de las proteínas, grasas e hidratos de carbono. Se los considera nutrientes esenciales para la vida.

Son sustancias orgánicas que nuestro cuerpo necesita en cantidades muy pequeñas, pero que no puede producir por sí mismo. Por lo tanto, le han de ser suministradas con la alimentación.  El conocimiento de las vitaminas es relativamente reciente. En realidad, todas ellas han sido descubiertas en el siglo XX.

Sin embargo, anteriormente ya se conocía el hecho de que, cuando se alimentaba a animales de experimentación con una dieta que contiene hidratos de carbono, grasas y proteínas en estado puro, los animales dejaban de crecer, enfermaban y acababan por morir.

El sueño de algunos científicos, de poder alimentarse con una dieta químicamente pura, creando alimentos sintéticos, se desvanecía.

Los animales y el hombre, necesitan algo más que hidratos de carbono, grasas y proteínas, por muy abundantes que estas sean.

Debían de haber pues, algunas sustancias en los alimentos en su estado natural, que resultaban imprescindible para la vida. En 1912, el bioquímico polaco Casimir Funk llamó a esas sustancias las ‘aminas de la vida, o vitaminas.

Las vitaminas son compuestos imprescindibles para el crecimiento y el desarrollo para el correcto funcionamiento de los tejidos y para un gran número de procesos metabólicos y fisiológicos.

La relación entre la dieta y determinadas patologías se conoce desde la conquista del Nuevo Mundo; a través de estas expedición se comprobó que la ingestión de algunas sustancias, como el pimentón, disminuía aparición de ciertas enfermedades. Del mismo modo, en la marina inglesa se erradicó el escorbuto gracias al consumo del jugo del limón.

Una característica común a todas las vitaminas es que son necesarias, en cantidad reducidas, para el correcto funcionamiento del metabolismo. Por otro lado, no todos los animales presentan los mismos requerimientos vitamínicos. Las aves y las ratas sintetizan la vitamina C, mientras que el ser humano y los simios no presentan esta capacidad, modo que deben tomarla a través de los alimentos.

La necesidad de vitaminas varía según la especie, la edad del individuo, el nivel de crecimiento, la actividad diaria, la existe de un estado de gestación, la situación de convalecencia de las enfermedades, etc.

En casos de mayor desgaste metabólico, o bien cuando la dieta nos es variada y en ella se incluyen alimentos frescos, se pueden presentar estados carenciales. Cuando esta falta de vitaminas es reducida, se habla de hipovitaminosis, una afección que provoca ciertas alteraciones; la carencia total de vitaminas se denomina avitaminosis y puede acarrear enfermedades muy graves.

Por otra parte, el exceso de vitaminas conduce a lahipervitanosis, responsable igualmente de diferentes patologías y alteraciones metabólicas.

Para designar a las vitaminas se pueden usar tres tipos de códigos: una letra mayúscula, un término relacionado con la enfermedad que se produce ante su ausencia o el nombre químico. La composición química de las vitaminas es muy variable; obstante, todas ellas son muy hábiles; es decir, muy sensibles al calor, al oxígeno, a cambios de pH y a la luz. Existen dos grandes grupos:

Vitaminas liposolubles: se caracterizan por no ser solubles en agua, pero sí los compuestos lipídicos. Son abundantes en alimentos con alto contenido lípidos, como el hígado de ciertos animales. Precisamente la estructura lipídica favorece su acumulación.

Vitaminas hidrosolubles: se solubilizan muy bien en agua, por lo que su eh nación a través de los riñones es muy eficaz. Por este mismo motivo no se acumulan como material de reserva.

Procedencia de las vitaminas: Las vitaminas son producidas primeramente por los seres del reino vegetal, ya sean las plantas superiores, los hongos o las bacterias. En algunos casos, los animales pueden transformarlas y almacenarlas, como ocurre por ejemplo con las vitaminas A y D, que los vegetales producen como pro-vitaminas, y se almacenan en el hígado de los peces y mamíferos como vitaminas. Sin embargo, la fuente básica de vitaminas, son los alimentos vegetales. La carne, por ejemplo, es muy deficiente en vitamina C.

Vitaminas liposolubles

Vitamina A

La vitamina A o retinol es un alcohol liposoluble de cadena larga. Es una molécula sensible a la luz ultravioleta, a los ácidos y al oxígeno. A principios del siglo XX se idearon ciertas sustancias liposolubles que eran esenciales para el crecimiento y el desarrollo animal, cuya síntesis química se debe a Isler (1947).

Se sabe que la vitamina A participa en el proceso de la visión; forma parte de la rodopsina presente en la retina del ojo.

Cuando incide la luz sobre la retina, esta molécula se rompe y se produce la cascada de reacciones que conduce a la formación de un impulso nervioso que se transmite a través del nervio óptico hacia el cerebro. La hipovitamiflosis (carencia de vitaminas) determina alteraciones de las glándulas sebáceas y sudoríparas, de la mucosa respiratoria, y provoca también sequedad en el ojo o xeroftalmia, que incluso puede afectar a la conjuntiva o a la córnea.

En niños pequeños, el exceso de esta vitamina conduce a estados de irritabilidad, vómitos y dolor de cabeza. Los alimentos ricos en vitamina A son el hígado de pescado y de vaca, los huevos, la leche, las zanahorias y la mantequilla.

En los vegetales coloreados (zanahoria, tomate, etc.) se encuentra en forma de provitamina, conocida como beta-caroteno, que nuestro organismo transforma en auténtica vitamina A (retinol) según sus necesidades.

Debido a que la absorción intestinal de los carotenos no es tan fácil como la de la vitamina A procedente de los alimentos animales, se calcula que se necesitan seis veces más de caroteno vegetal que de retinol animal. Aun así, la dieta vegetal normal aporta cantidades sobradas de vitamina A.

No ocurre lo mismo con los alimentos animales, en los que, exceptuando el hígado de los animales, ciertos pescados, o los lácteos, es bastante escasa. La carne magra es muy pobre en vitamina A.
Según la OMS, la vitamina A es de la que más se carece en determinadas regiones del mundo. Al igual que ocurre con otra vitamina liposoluble, la D, el exceso de vitamina A en su estado definitivo (retinol), tal como se encuentra en los animales, resulta tóxico para el hombre.

Funciones
• Formación de los pigmentos visuales en la retina. La falta de vitamina A impide ver con poca luz (ceguera nocturna).

• Formación y mantenimiento de las células que recubren la piel, los ojos, la boca y los órganos internos. Cuando falta vitamina A, la piel, y especialmente la conjuntiva que recubre al ojo, se resecan y debilitan, Cuando este déficit es grave llega a producirse la ceguera. Entre los niños del tercer mundo todavía se dan numerosos casos de ceguera por falta de vitamina A.

• Evita la formación de tumores cancerosos en los órganos de nuestro cuerpo, debido a su poderosa acción antioxidante. Este efecto lo produce en su forma de provitamina vegetal (caroteno). Se ha comprobado que los fumadores que toman muchas hortalizas, especialmente zanahorias), padecen menos cáncer de pulmón que los fumadores que consumen pocas.

Vitamina D

La vitamina D tiene diferentes formas metabólicas, según sea de origen animal o vegetal. La forma habitual en el ser humano es la vitamina D3 o ergocalciferol, que deriva del 7-dehidro-colesterol por irradiación ultravioleta. La asociación del raquitismo y la luz solar conllevó la realización de diferentes estudios que culminaron en la síntesis de los primeros esteroles, en los años treinta del siglo XX. La función de esta vitamina es la de favorecer la absorción intestinal de calcio y fósforo, y la correcta formación de los huesos.

Su carencia, por una mala dieta o por una falta de exposición a la luz solar, puede conducir a los niños en crecimiento al raquitismo. Esta patología consiste en una calcificación de los huesos, que puede dar lugar a su arqueamiento. Los síntomas son debilidad muscular, dolores, alteraciones al caminar, etc. La vitamina D está presente en pescados grasos, como la sardina y el arenque, en los huevos y en el queso.

Vitamina E

La Vitamina E o tocoferoles está formada por un conjunto de líquidos oleosos solubles en os disolventes de las grasas. Existen ocho tipos en total. Tiene una función antioxidante pues evita la oxidación de los ácidos grasos insaturados presentes en las membranas celulares, reduciendo los fenómenos de deterioro.

No obstante, todavía no se ha establecido completamente su relación con el retraso en la aparición de tumores y el proceso de envejecimiento de los humanos.

En ciertos animales, no en el hombre, Su carencia está asociada con alteraciones en el hígado y en el sistema inmunitario; además, puede conducir a la esterilidad. Está presente en los aceites vegetales, en el germen de trigo, en los huevos y en la mantequilla.

Vitamina K

Vitamina K está constituida por varias sustancias denominadas naftoquinonas, que participan en el proceso de la coagulación de la sangre, en concreto, en la síntesis de la protombina. Su déficit, por una absorción reducida o ingestión de ciertos antibióticos ocasiona hemorragias, osteoporosis y fracturas de huesos. Es muy abundante en verduras como la col y las espinacas.

Vitamina B1

También llamada tiamina, da lugar en su metabolismo al pirofosfato de tiamina o PP que participa como coenzima en multitud de procesos metabólicos. Su déficit, ocasionando por un consumo habitual de productos refinados, de alcohol o de carbohidratos, provoca una degeneración del sistema nervioso.

En el ser humano ocasión un conjunto de síntomas que se conocen como la enfermedad del beriberi. Esta vitamina se encuentra en el germen de trigo y en la levadura de la cerveza.

La vitamina B1 está presente en alimentos como el hígado, la leche, el pan, el germen de trigo cereales. La enfermedad del beriberi, que se manifiesta a través de síntomas neurológicos, anomalías cardiovasculares y edema, está provocada por su déficit.

Esta vitamina se descubrió en el arroz integral, a principios del siglo XX, al notar que este alimento era capaz de curar la enfermedad del beriberi.

Funciones: Interviene en el metabolismo de los hidratos de carbono, facilitando las reacciones químicas mediante las cuales su producto final, la glucosa, se transforma en energía.
e Es un factor esencial en las funciones del sistema nervioso. Su falta ocasiona irritabilidad y desequilibrio nervioso.

Su carencia ocasiona el beriberi, enfermedad que afortunadamente ya se ha vuelto rara en el mundo. La vitamina B1 se halla muy extendida en la naturaleza, y todas las frutas, cereales (especialmente los integrales) y hortalizas, la contienen. Son pobres en vitamina B1 el azúcar blanco (no el azúcar moreno o la miel), y la harina blanca refinada (no la harina integral). La dieta a base de fruta, cereales y hortalizas suple sobradamente las necesidades de esta vitamina.

Vitamina B2

En la leche se encuentra libre en un 90%, pero también puede aparecer asociada con proteínas formando el FMN y el FAD. Participa en los procesos de crecimiento y en el metabolismo de la piel y las mucosas. Con su carencia se producen alteraciones en la piel y en los ojos y retraso en el crecimiento.

Vitamina PP

Vitamina engloba a dos metabolitos principales, estables y solubles en agua: el ácido nicotico y la nicotinamida.Como parte de estas dos coenzimas participa en las rea4 de la respiración aerobia. Su deficiencia produce fatiga y lesiones en la piel. Su contenido se equilibra con una dieta rica en carnes y pescados.

Vitamina B5

En 1953, F. A. Lipmann y H. A. Krebs recibieron el premio Nobel de Fisiología y Medicina por descubrir la presencia, como componente de la coenzima A, del ácido pantotémico o vitamina B5. Su carencia provoca alteraciones en la coordinación motora y de circulación sanguínea en las extremidades inferiores. Está presente en el hígado de animales y en prácticamente todos los alimentos.

Vitamina B6

También conocida como piridoxina, da lugar en su metabolismo al piridoxal, que es una parte importante del metabolismo de las proteínas. El desequilibrio del sistema nervioso ante su carencia se restablece con la ingestión de frutas, carnes, pescados y legumbres.

Vitamina B8

La vitamina B8 o biotina participa en las reacciones de descarboxilación. Se encuentra en una amplia gama de alimentos y su carencia ocasiona anorexia, vómitos, alopecia y dermatitis.

Vitamina B9

Esta vitamina, conocida como ácido fólico, participa en la síntesis de las bases nitrogenadas que forman los ácidos nucleicos. La ausencia de espinacas, coles, hígado, eche y carne en la dieta puede ocasionar trastornos digestivos agudos.

Vitamina B12

También llamada cianocobalamina, Interviene en la formación de los glóbulos rojos de la sangre y en el metabolismo de los ácidos nucleicos y las proteínas. Su carencia produce estados de anemia, alteraciones neurológicas y cutáneo-motoras Se encuentra presente en el hígado de varios animales.

Vitamina C

La falta de esta vitamina provocó la primera enfermedad carencial conocida el escorbuto, cuya curación se debió al consumo de jugo de limón Se encuentra en los cítricos, las verduras, las fresas y el kiwi.

La carencia de vitamina C, presente en los cítricos, puede provocar la aparición del escorbuto, patología caracterizada por astenia, hemorragias subcutáneas, alteración de algunos tejidos, especialmente el de las encías, y debilidad general

Ver También: Las Mas Importantes Vitaminas Para el Organismo

Ver También: Historia Descubrimiento ADN

PARA SABER MAS…
UN POCO DE HISTORIA SOBRE LAS VITAMINAS

Casimir FunkEl escorbuto dominaba en alta mar. El beriberi era una epidemia en todo el sudeste asiático. La pelagra, una amenaza en todo el mundo.

Excepto el antídoto contra el escorbuto de la armada inglesa, grandes cantidades de limas (de ahí el mote de «limey» de los marinos británicos), no se conocía protección alguna contra estas temidas enfermedades hasta que en 1912 Casimir Funk publicó su artículo La etiología de las enfermedades deficitarias.

En el texto, Funk, un joven y brillante bioquímico polaco (obtuvo el doctorado a los 20 años y solo tenía 28 en la época de su avance decisivo), mostró que las enfermedades estaban causadas por deficiencias alimentarias.

«Las sustancias deficitarias que se llamarán vitaminas», escribió. En el transcurso de su investigación, Funk postuló que cuatro sustancias de éstas (más tarde identificadas como vitaminas Bi, 62, C y D) eran imprescindibles para una buena salud.

Como otros habían hecho anteriormente, Funk observó que las enfermedades deficitarias se producían en zonas con dietas de subsistencia monoalimentarias. Trabajando en el instituto Lister de Londres, Funk realizó sus experimentos.

Alimentó pájaros con una dieta consistente exclusivamente en arroz refinado y enfermaron de algo muy parecido al beriberi, enfermedad habitual entre la población que hacía una dieta restringida similar. Funk restituyó la parte del meollo del arroz que había refinado y los pájaros se recuperaron.

Sin embargo, mientras otros habían atribuido la enfermedad a las toxinas introducidas en el arroz al refinarlo (para la que el arroz restituido era un antídoto), Funk estableció correctamente que el problema no era lo que había en el arroz sino lo que había perdido.

Tras un nuevo estudio, Funk fue capaz de relacionar ciertas sustancias orgánicas, sus «vitaminas», con la prevención de enfermedades específicas. Habló de una vitamina beriberi y de otra escorbútica. «Todas las enfermedades deficitarias se pueden prevenir con una dieta completa», concluyó. Sus palabras cambiaron las formas de alimentación en el mundo.

tabla de vitaminas

Ver: Metabolismo y Obesidad

Diferencias entre virus y bacterias Tipos de Virus Clasificacion

Diferencias Entre Virus y Bacterias

Los virus son seres acelulares, extraordinariamente simples, cuyo nivel de organización los sitúa entre lo vivo y lo inerte; aunque son capaces de autoduplicarse en las células vivas, pierden por completo su funcionalidad cuando se los separa de las células que parasitan

A pesar de dedicar parte de su esfuerzo a investigar cuál era la causante de la rabia, Pasteur no logró determinarlo.  El pensaba que se trataba de un microorganismo demasiado pequeño, imposible de ser detectado usando las técnicas de que disponía.  Es entonces, en la última década del siglo XX, cuando comenzaron las investigaciones que permitieron descubrir la existencia de los virus.

En el año 1892, el botánico ruso Dimitri Ivanowski (1864-1920) demostró que el jugo extraído de plantas de tabaco que padecían una enfermedad conocida como “mosaico de tabaco” podía infectar a otras después de atravesar filtros con poros que normalmente retenían a las bacterias.

Sin embargo, es  en el año 1895, cuando el botánico holandés Martinus Beijerinck nombró “virus filtrante” al agente causante de esta enfermedad.  La palabra virus significaba “veneno”. Este descubrimiento marcó el comienzo de la virología. (Fuente Consultada: Bocalandro, N; Frid, D; Socolovsky, L. Biología I)

Estructura de los virus

Estos microorganismos de dimensiones muy pequeñas, presentan una estructura de gran simplicidad, en donde encontramos una envoltura externa similar a la membrana plasmática que contienen las células, una cubierta proteica propia y un ácido nucleico. Sin embargo, hay características relevantes que diferencian a los virus de los restantes grupos de seres vivos: el material genético es ADN o bien ARN, pero nunca ambos tipos a la vez.

En primer lugar, el virus VMT, el de la polio, los parvovirus son moléculas de ADN lineales y monocatenarias, es decir que contienen una sola hebra y por ejemplo el Reovirus, o el virus del herpes, sus moléculas también pueden ser lineales pero bicatenarias, con doble hebra.

Como se mencionaba más arriba, la estructura de los virus es de gran simplicidad, consistente en una cubierta de proteínas llamaba “cápside” (la cual rodea al material genético)  y una molécula de ácido nucleico en su interior.  Esta cápside consta de varias subunidades, la que llamaremos Capsómeros.

El perfil externo de los virus, pueden estar dados según la disposición que adoptan cada uno de estos capsómeros, resultando de ser: poliédricos, heliocoidales o complejos. Por ejemplo, normalmente los que tienen veinte caras como ser el virus de la polio, son los que conocemos como poliédricos; en el caso del virus de la rabia que se dispone en torno al ácido nucleico es el heliocoidal y por último aquellos que están formados por una cabeza, una cola y un posterior sistema de anclaje, son los denominados complejos, como por ejemplo los bacteriófagos (es decir aquellos virus que infectan otros organismos, pero en este caso son las bacterias).  Estos virus presentan una cápside poliédrica, una cola y una estructura de anclaje que consta de espinas y filamentos caudales.

Los virus que infectan animales están provistos de una membrana que les rodea por completo (formada por lípidos y proteínas, estas últimas específicas de cada uno) mientras que los que parasitan plantas, los que invaden bacterias y algunos animales carecen de ella y se denominan virus desnudos.

Dentro del mundo de los microbios, las bacterias y los virus son dos formas de vida dispares. Las primeras son organismos compuestos por una célula muy primitiva, ya que no posee núcleo, aunque se reproducen por sí solas. Bajo las condiciones adecuadas, pueden convertirse en millones en pocas horas por simples divisiones. Por el contrario, un virus es una criatura en el límite de lo que se considera vida. No es otra cosa que un fragmento de ADN -o ARN- dentro de una cápsula. Cuando el virus entra en contacto con la célula, se pega a ésta y le inyecta su material genético. Este ADN secuestra la maquinaria celular para hacer copias de sí mismo y formar nuevos virus. La célula es una fábrica de virus. Pero para que funcione, el agente viral debe hallar una puerta de entrada específica, esto es, un receptor que le abra paso. Así, las células sin ese receptor adecuado no pueden ser infectadas. Por eso, el virus de la polio sólo infecta a los seres humanos y a los primates más cercanos.

El ataque de los Virus:

Cuando un virus ingresa al organismo y comienza a invadirlo, obliga a toda la maquinaria celular a que lo replique o reproduzca y genera así la enfermedad.  Es por esto, que nosotros los humanos hemos desarrollado respuestas que destruyan a estos microorganismos extraños que nos invaden, es decir a todas aquellas células que no son propias de nuestro organismo.  La respuesta a ello son los glóbulos blancos, aquí si típicas células de nuestro organismo, aquellas que descienden de la célula madre localizada en la médula ósea. Por lo general, este ataque a un invasor de características microscópicas es de carácter inflamatorio.  ¿Por qué? Simplemente porque implica la utilización de nuestras células sanguíneas, para aislar y destruir el foco infeccioso detectado.

La sangre, puede definirse como un “órgano líquido que se desplaza de forma constante a través de un sistema de conductos que lo distribuyen por todo el cuerpo. Este órgano tan especial funciona como vehículo de trasporte de gases, como por ejemplo el oxígeno y de los nutrientes, entre otros que son de vital importancia para nuestro funcionamiento.

Pero, los vasos sanguíneos para poder llegar a todas las células del cuerpo, deben ramificarse y disminuir su tamaño.  Los capilares, son justamente estos vasos más pequeños que poseen una capa de células que los recubren funcionando como una minipared.  Estas células se hallan próximas al tejido infectado, la mayoría de los casos es la piel, lo cual producirán la libración de histamina, interferón y otras sustancias químicas, en respuesta inflamatoria ante el virus presentado. ¿Por qué?

Esto se debe que las sustancias químicas tienen la propiedad de lograr que en las paredes capilares se abran orificios, produciendo que los glóbulos blancos salgan del torrente sanguíneo acompañados de otros componentes y líquidos de la sangre. La cara visible de muchas veces de este proceso es lo que conocemos como “pus” (fluido producido), es decir la actividad expulsada de las células, ya que el paso de líquido a la zona afectada provoca la característica hinchazón del foco infeccioso.

La Defensa al Ataque: (ver Inmunidad Humana)

Si el predador microscópico pudo atravesar la primera barrera (la piel, por ejemplo) o si ocurre el contagio directo al interior del cuerpo a través de heridas, la única defensa que nos queda es lo que denominamos respuesta inmune. Esta respuesta inmune es altamente específica e implica fundamentalmente dos tipos de glóbulos blancos de la sangre: los linfocitos B y los linfocitos T. Cuando algún elemento extraño logra ingresar en nuestro cuerpo, los linfocitos B (que maduran en el bazo) comienzan a sintetizar una serie de moléculas que son capaces de inmovilizar al invasor. Estas moléculas se denominan anticuerpos, y tienen una forma característica que es complementaria a alguna estructura de la superficie externa de los invasores. De esta manera los anticuerpos encajan perfectamente en cada porción de la cobertura exterior de los microbios. Un microorganismo queda así en poco tiempo cubierto de anticuerpos.

El proceso lo inmoviliza y, así, es fácil presa de otras células de la sangre, que literalmente se lo comen y lo destruyen. Los linfocitos T son células que maduran en el timo, y son responsables de la destrucción de los agentes infecciosos y de las células que los contienen. Algunos linfocitos T actúan directamente contra el invasor (citotóxicos) y otros lo hacen indirectamente (cooperadores). Los linfocitos T citotóxicos reconocen células que están infectadas con algún parásito intracelular y las destruyen (junto con el agente infeccioso que llevan dentro, claro), mientras que los linfocitos cooperadores aumentan la respuesta inmune.Sin la acción de las células  cooperadoras la respuesta inmune hacia cualquier infección es muy suave e insuficiente.

Así nuestra respuesta a la presencia de algún elemento extraño en la sangre es muy violenta. Tanto, que a nuestros depredadores no les queda otra salida que ser más veloces que nuestras defensas o cambiar.

Muchos virus eligen la estrategia del camuflaje para evitar la acción de la respuesta inmune del huésped. Por ejemplo, el virus de la gripe cambia su estructura externa y se disfraza para que el huésped no lo reconozca.33 Otros, como el virus responsable del sida (síndrome de inmunodeficiencia adquirida), denominado virus de la inmunodeflciencia humana o VIH, han desarrollado una estructura totalmente diferente que les asegura su mantenimiento y proliferación en nuestro cuerpo a pesar de todos los mecanismos de inmunidad que mencionamos.

El VIH invade (y destruye) principalmente las células T cooperadoras, y deja el sistema inmune de la víctima con una capacidad muy disminuida para responder contra las infecciones. En las etapas finales de la enfermedad, el virus invade otras células y tejidos del cuerpo, incluidos los del sistema nervioso. La deficiencia inmunológica termina afectando a los pacientes, ya que no pueden responder con eficacia contra otras infecciones y de esta manera quedan cada vez más expuestos a enfermarse.

El virus del sida está presente en altos niveles en la sangre y en el semen de los individuos infectados y, por lo mismo, se transmite por contacto sexual (heterosexual u homosexual, oral, vaginal o anal), y a través del intercambio de sangre o de productos de la sangre.

Clasificación de los virus En función de los distintos parámetros que presentan, los virus se pueden clasificar  de la siguiente manera:

Virus ARN e ARN monocatenario:
Sin envoltura

Familia Leviviridae, cuya célula huésped es una bacteria, como el 1P501.

— Familia Astroviridae: infectan a vertebrados, como el astrovirus humano 1.

— Familia Barnaviridae: infectan a hongos, como el virus baciliforme de los hongos.

— Familia Picornaviridae: infectan a los animales invertebrados, como el virus de la parálisis del grillo, o a los vertebrados, como el virus de la polio en humanos y el virus de la hepatitis A.

Con envoltura

— Familia Rhabdoviridae: parasitan a las plantas, como el virus de la necrosis de la lechuga, o a los vertebrados, como el virus de la rabia.

— Familia Coronaviridae: parasitan a vertebrados, como el virus de la bronquitis infecciosa aviar.

— Familia Paramyxoviridae: parasitan a vertebrados, como el virus del sarampión.

— Familia Orthomyxoviridae: parasitan a vertebrados, como el virus de la gripe.

— Familia Retroviridae: parasitan a vertebrados, como el virus del cáncer y del sida.

— Familia Paramyxoviridae: parasitan a vertebrados, como el virus de la parotiditis.

— Familia Togaviridae: parasitan a vertebrados, como el virus de la rubéola y el de la fiebre amarilla.

ARN bicatenario
Sin envoltura

— Familia Reoviridae: infectan a las plantas, como el virus tumoral de las heridas; a los invertebrados, como el orvovirus de la lengua azul, o a los vertebrados, como el virus de la diarrea en niños.

— Familia Birnaviridae: infectan a vertebrados, como el virus infeccioso de la necrosis del páncreas.

Con envoltura

— Familia Cystoviridae: afectan a bacterias como el Phi 6.

Virus ADN ADN monocatenario
Sin envoltura

— Familia Inoviridae: infectan a las bacterias, como el MVL1 o el M13.

— Familia Microviridae: infectan a las bacterias, como el X174.

— Familia Geminiviridae: parasitan a las plantas, como el virus del estriado del maíz.

— Familia Parvoviridae: parasitan a los invertebradas, como el densovirus de Galleria que afecta a los artrópodos, o a los vertebrados, coma los virus de los perros y los cerdos.

ADN bicatenario
Sin envoltura

— Familia Myoviridae o bacteriófagos, como el virus P2 y el T2.

— Familia Corticoviridae o bacteriófagos, como el PM2.

— Familia Caulimoviridae: parasitan a las plantas, como el mosaico de la coliflor.

— Familia lridoviridae: infectan a los invertebrados, como el virus de iridiscente de típula, o a los vertebrados, como el virus 3 de la rana.

— Familia Adenoviridae: parasitan a los vertebrados, como el adenovirus humano.

— Familia Papovaviridae: parasitan a los vertebrados, como el que produce las verrugas.

Con envoltura

— Familia Plasmaviridae o bacteriofagos, como el MV-L2.

— Familia Poxviridae: parasitan a los invertebrados, como el virus de la Melolontha, o a los vertebrados, como el virus de la viruela.

Ciclo Vital de los virus
Una de las características más importantes de las virus es que no desarrollan un metabolismo propio. El virus usa material genético con la información suficiente para poder autoduplicarse gracias al metabolismo de la célula huésped que parasita. Los  más estudiados son los de los bacteriófagos: el ciclo lítico y el ciclo lisogénico.

En el ciclo lítico a de infección de una bacteria se pueden diferenciar varias fases:

1. Fijación a la superficie de la célula hospedadora. Gracias a receptores específicos en la pared bacteriana los virus se fijan a la superficie de ésta. En la cola del virus se localizan enzimas que actúan de manera selectiva debilitando los enlaces de las moléculas de la pared.

2. Penetración, El virus que se ha fijado a la pared bacteriana, contrae a vaina helicoidal e inyecta el material genético en el interior de La célula huésped. En esta penetración, los bacteriófagos o fagos dejan fuera de la célula la cápsida, la cola y la placa de fijación. En el caso de los virus que afectan a las células animales, entran intactos en la célula.

3. Replicación. El ADN bacteriano es degradado y se detiene el metabolismo celular. El virus codifica en su material genético una serie de enzimas que van a dirigir todos los procesos celulares hacia la síntesis de nuevas proteínas virales ya la replicación, del material genético viral.

4. La siguiente fase es el ensamblaje del material genético y de las proteínas para dar lugar a nuevas partícula .

5. Finalmente se produce la liberación de los nuevos virus gracias a la degradación de la pared bacteriana, mediante la acción de la lisozima. De medía, se generan cien nuevos virus.

En cuanto al ciclo lisogénico, existen formas de virus llamados atenuados, que gran su material genético en el de la célula huésped. De este modo, los genes mantienen reprimida su expresión, hasta que se produce la replicación del material genético de la célula huésped. El tipo de bacteria en el que se da este fenómeno se denomina lisogénica, y el virus no lítico recibe el nombre de profago.

Cuando las condiciones ambientales sean las adecuadas, el virus puede entrar en un ciclo lítico y liberarse y destruir la célula huésped. La bacteria que contiene un profago quedará inmune de la infección por virus de esa misma especie.

ALGO MAS SOBRE LOS VIRUS:

Se llama así al tipo más pequeño de microorganismo. Los virus son generalmente más chicos que las bacterias y pueden verse sólo con el microscopio electrónico. Su tamaño varía entre 10 y 300 millonésimas de milímetro. Son los agentes de muchas enfermedades. Se hallan en el límite entre los seres vivos y la materia inerte. No están formados por células y en muchos casos actúan como sustancias químicas inorgánicas. Por ejemplo, pueden formar cristales y permanecer estables, pero inertes, durante períodos largos. Pero, como organismos vivos, los virus pueden reproducirse y transmitir a su descendencia sus características. Sin embargo, dicha reproducción sólo puede realizarse dentro de las células vivas de otros organismos.

A diferencia de las bacterias, los virus no aumentan sus colonias en un medio de cultivo inorgánico, sino que deben cultivarse en laboratorio sobre tejidos vivos. Tanto plantas como animales son atacados por virus; pero en la mayoría de los casos, las enfermedades sólo pueden desarrollarse en grupos de individuos específicos. Por ejemplo, la peste de las aves de corral, de los cerdos, o el moquillo, son enfermedades virósicas de animales que los humanos no padecen. Pero la viruela, la rabia y la psitacosis (una enfermedad de las aves) pueden ser transmitidas al hombre.

Entre otras enfermedades virósicas humanas se cuentan el resfrío, la gripe, la poliomielitis, la varicela, la viruela, las paperas, el sarampión, el herpes zoster y la hepatitis. Algunos tipos de cáncer también son causados por virus. Las enfermedades virósicas de las plantas pueden destruirlos cultivos. Aún las bacterias son atacadas por ciertos virus, llamados bacteriófagos. Poco pueden hacer los médicos para combatir las enfermedades virósicas pues se han descubierto pocas drogas que sean efectivas contra los virus, tal como son los antibióticos y las sulfas contraías bacterias.

El organismo, sin embargo, reacciona contra la invasión virósica de dos maneras. 1) Produce anticuerpos que obligan a los virus a agruparse, lo que facilita su destrucción. 2) Produce una sustancia que se llama interferón, que interfiere el desplazamiento del virus de una célula a la otra.

A principios de 1970, los científicos sólo habían tenido un éxito moderado en el desarrollo artificial de la producción de interferón como método para combatir las enfermedades virósicas. La reacción anticuerpo, por otra parte, se ha usado durante mucho tiempo, como base de la vacunación. Cuando una persona ha tenido una enfermedad producida por virus, su cuerpo tiene la posibilidad de formar anticuerpos. Por este motivo, tales enfermedades atacan al organismo sólo una vez. Si se inyectan virus muertos o atenuados, el médico puede conferir al paciente una inmunidad artificial.

Serendipia en la Ciencia

Fuente Consultada:
Texto Basado en El Elixir de la Muerte Raúl A. Alzogaray (Ciencia que Ladra…) – Diccionario Enciclopédico Espasa Calpe

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Adelantos Tecnológicos Post Guerra Mundial

Historia Evolución Tecnológica Post Guerra Mundial
Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación.

Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950

Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo.

Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953.

En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. (imagen abajo)

auto escarabajo wolkwagen

En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.

antigui citroen 2cv

También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

vespa antigua

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles.

La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos.

Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

Resultado de imagen para primeros aviones comerciales historiaybiografias.com

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez.

En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura.

Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado.

Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines.

Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones.

En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional.

Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección.

transistor semiconductor

Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente.

Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia).

Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor.

El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio.

El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX.

El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania.

En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año.

En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento.

Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Historia de las Sulfamidas

Historia de las Sulfamidas

Cuando todavía no se habían descubierto los antibióticos, y mientras el mundo se aprestaba a la guerra, en la paz de los laboratorios hombres de ciencia trabajaban en procura de los elementos que aminoraran los males de la humanidad.

De pronto, en 1935, cuando ya se preveían las primeras chispas de otra conflagración, el universo recibió un anuncio sensacional: un sabio alemán había descubierto que un compuesto químico, utilizado hasta entonces como colorante, tenía extraordinarias propiedades terapéuticas y era de singular eficacia en la lucha contra la infección.

Poco después las sulfamidas llegaban a todos los rincones de la Tierra, y con su aplicación terminaban muchas enfermedades.

LAS SULFAMIDAS: EL descubrimiento sensacional que revolucionó la quimioterapia en el año 1935 tenía antecedentes. Si bien es cierto que ya en 1908, es decir, casi 30 años antes, se consiguió preparar algunas drogas maravillosas, los primeros compuestos sintetizados en esa época servían sólo como colorante, y nadie pensó en su extraordinario poder bactericida.

Después de 1930, se empezó a pensar en las propiedades terapéuticas de estos compuestos, hasta que en 1935, luego de algunos estudios preliminares, apareció el primer trabajo sobre las sulfamidas, que habrían de provocar una verdadera revolución en el campo terapéutico.

Bajo el título de «Contribución a la quimioterapia de las infecciones bacterianas», el sabio alemán Domagk explicaba cómo un producto, especie de derivado del azufre, contenía extraordinarias propiedades bactericidas. Aparecieron ese mismo año trabajos de otros autores, alemanes, franceses e ingleses, pero pasó más de un año sin que los médicos ni el público se hubieran dado cuenta de la enorme trascendencia del descubrimiento de Domagk.

En realidad fue la propaganda comercial la encargada de informar al mundo. Y a fines de 1936 y principios de 1937, las grandes fábricas de productos medicinales enviaban a los médicos de todo el orbe folletos explicativos de la nueva droga y sus derivados, que aparecían uno después de otro, en impresionante sucesión.

El mundo comenzó a enterarse de inesperadas curaciones y la gente, con el consabido entusiasmo, comentaba las más diversas historias sobre agonizantes salvados.

Lo importante es que, contra la neumonía, antes de 1935 no se conocían remedios muy eficaces. Los enfermos morían o se curaban según sus propias reservas. La meningitis sólo en muy raros casos no era mortal y lo mismo ocurría con las septicemias por cocos. Todo cambió radicalmente después de 1935, gracias a la sulfamida Los médicos la recomendaron para muchas enfermedades de carácter infeccioso.

La droga cobró tanta popularidad y el público le había tomado tan amplia confianza, que compraba los comprimidos y los ingería con cualquier pretexto. Se emplearon hasta contra la gripe y el resfrío sin prescripción médica y, como es natural, aparecieron los fracasos. Porque la droga descubierta por Domagk no tenía eficacia en todos los casos.

Las primeras sulfamidas eran parecidas al prontosil. Después, los químicos se encargaron de mejorarlas, tomando como guía lo que ocurre en nuestro organismo. Probado que el prontosil sufre modificaciones después de haber entrado en el organismo y es el nuevo compuesto el que tiene verdadera acción activa, se procura modificar la fórmula en los laboratorios. Es decir, que se trata de producir la sustancia ya preparada para ser inyectada con todo su poder bactericida.

Así se llega a la sulfanilamida, sustituto de todos los compuestos sulfamídicos existentes hasta entonces. Apareció más tarde, en 1938, en Inglaterra, la sulfapiridina y un año después se creó, en los Estados Unidos de Norteamérica, el sulfatiazol, droga que dominó todo el campo de las sulfamidas.

Paulatinamente, se fueron eliminando los efectos tóxicos del nuevo producto, que causaba trastornos en algunos organismos. En esa paciente tarea de laboratorio se logró, primero la sulfadiazina, más tarde la sulfaguanidina y después la sucinil-sulfa-ziatol o sulfasuxidina, desinfectante intestinal, la sulfametazina y la sulfamerizina.

¿Cómo actúan las sulfamidas? La droga no mata directamente a los gérmenes sino que les impide desarrollarse, paralizándolos.

El perfeccionamiento del medicamento después de conocerse su fórmula analítica, permitió elaborarlo como polvo blanco, cristalino, poco soluble en agua. Las investigaciones realizadas posteriormente permitieron comprobar que la sulfamida lograda de esta manera se absorbe a través de la mucosa digestiva y se difunde rápidamente por todo el organismo con una acción terapéutica muy enérgica contra algunas enfermedades infecciosas.

Los descubrimientos más recientes han revelado la manera cómo actúa la sulfamida y es que ella no permite la multiplicación de los gérmenes patógenos sustrayéndoles una sustancia que necesita el microorganismo para cumplir ese proceso. Asimila el ácido paraaminobenzoico en el ciclo metabólico de los microorganismos y con ello, pierde la capacidad de reproducirse. De esta manera queda detenida su acción patogénica. Nuevas investigaciones permitieron concretar otras drogas derivadas del núcleo químico principal de la sulfamida, pero algunas como la sulfanilamida pueden provocar manifestaciones tóxicas.

Los soldados aliados que participaron en la Segunda Guerra trataban sus heridas con sulfanilamida, un antibiótico artificial descubierto en 1932 por el médico alemán Gehrard Domagk, un discípulo de Paul Ehrlich que, como su maestro, buscaba una “bala mágica” para matar a las bacterias sin intoxicar a las personas.

Estas intoxicaciones se manifiestan, en el sistema digestivo, en la sangre con la producción de cianosis yagranolocitosis en la piel, en el hígado y en los riñones. Los últimos adelantos han permitido concretar un medicamento que puede ser administrado, sencillamente, por la vía oral en las afecciones causadas por los estreptococos por medio de comprimidos, pero también como polvo para el tratamiento de las heridas, úlceras, etc.

Últimamente se ha logrado sintetizar otro compuesto que tiene su origen en la sulfamida, pero con la ventaja que son menos tóxicas que la sulfanilamida y además, tienen una acción terapéutica más pronunciada: elsulfatiazol, la sulfadiacina, la sulfametacina.

Lamentablemente, las sulfamidas a igual que los antibióticos descubiertos posteriormente no tienen acción contra las dolencias producidas por virus. No manifiestan su poder curativo sobre estas entidades ultramicroscópicas y ello se debe, a que son moléculas proteínicas de tamaño sumamente pequeño, únicamente individualizadas a través del microscopio electrónico.

La industrialización masiva de los antibióticos y la introducción de la penicilina como droga activa vino a reforzar la actividad terapéutica de las sulfamidas que se pueden administrar en dosis adecuadas con los antibióticos en casos así prescriptos y mucho más cuando los gérmenes se transforman en antibióticos resistentes.

La alternancia entre ambas drogas resulta de eficacia para bloquear varias enfermedades infecciosas. En buena hora.

Fuente Consultada: 75° Aniversario de LA RAZÓN Historia Viva

Propiedades de las Proteínas Concepto y Clasificación

Propiedades de las Proteínas:Concepto y Clasificación

LAS PROTEÍNAS: Existe una gran preocupación por las proteínas en la alimentación. Y no es en vano, pues estos nutrientes presentan dos características peculiares: Forman la base de la estructura del organismo, siendo el componente más importante de los músculos, de la sangre, de la piel y de todos los órganos internos. Los huesos también están formados por proteínas de colágeno, sobre los que asientan el calcio y otros minerales. Un 17% del peso de nuestro cuerpo está formado por proteínas, es decir, de 10 a 12 kilos para un adulto normal. No se almacenan en el organismo constituyendo una reserva alimentaria, a diferencia de lo que ocurre con las grasas o los hidratos de carbono. Por ello, es necesario ingerirlas de forma constante a lo largo de la vida.

PROTEÍNAS: Las moléculas de hidratos de carbono y grasas, contienen solamente carbono, hidrógeno y oxígeno, pero las proteínas tienen, además, átomos de nitrógeno y algunas veces átomos de azufre y fósforo, y ocasionalmente hierro, yodo u otros elementos. Sus moléculas son las más complicadas de todas las sustancias, porque en cada una de ellas se encuentran grandes cantidades de átomos combinados y distribuidos de distinta manera.

Esto explica también, que el número de proteínas diferentes sea realmente asombroso, hasta el extremo que cada especie viviente tiene algunas que son características de ella y no se encuentran en ninguna otra.

La importancia de las proteínas reside en que, junto con el agua, forman las bases de toda la materia viviente o protoplasma. También forman parte del material hereditario llevado en los cromosomas de los núcleos celulares. Las enzimas, catalizadores que son muy necesarios para la vida, son proteínas. Las proteínas también se usan como depósitos alimenticios, particularmente en las semillas de muchos vegetales.

Puede compararse a las proteínas con los polisacáridos. ya que sus moléculas están formadas por uniones. Muchas moléculas de azúcar se unen para formar un polisacárido. Las unidades que componen las proteínas se llaman aminoácidos. El más simple de los aminoácidos es la glicina o ácido aminoacético. Su fórmula es: NH2CH2COOH.

El grupo NH2 , (grupo amino) es básico, y el hidrógeno del grupo carboxilo (—COOH) lo hace ácido. Las sustancias que pueden actuar como bases o como ácidos se llaman anfoteros.

El grupo básico amino de una molécula de aminoácido, puede reaccionar con el grupo ácido carboxilo de otra molécula para formar un dipéptido. De esta manera pueden unirse por sus extremos muchos aminoácidos, formando largas cadenas llamadas polipép-tidos y eventualmente moléculas proteicas. Cada molécula de proteína está formada por grandes cantidades de aminoácidos.

Se conocen alrededor de veinticinco aminoácidos. Dentro de ciertos límites, los animales pueden sintetizar (esto es, construir) algunos aminoácidos a partir de moléculas más simples. También pueden convertir algunos aminoácidos en otros. Sin embargo, una cantidad de aminoácidos no puede sintetizarse ni obtenerse, a partir de otros; tienen que estar presentes en la dieta y se llaman aminoácidos esenciales, para distinguirlos de los otros no esenciales.

Los aminoácidos son capaces de combinarse en variadas proporciones y puede repetirse muchas veces la misma serie de varios aminoácidos, o series levemente distintas, de manera tal que puedan formarse grandes cantidades de proteínas diferentes.

Las proteínas que se encuentran en los núcleos de las células se llaman nucleoproteínas. Se cree que los cromosomas están formados en su mayor parte por nucleoproteínas, y se ha demostrado que al gunos virus consisten en masas de nucleoproteínas. De este modo, ciertas nucleoproteínas deben considerarse como causantes de varias enfermedades infecciosas.

Se piensa también, que las nucleoproteínas de las células animales y vegetales, son las productoras de otras proteínas, quizá produciendo las enzimas capaces de unir ios aminoácidos necesarios. En el núcleo, moléculas de importancia (ácidos nucleicos) que están dispuestas en hilera sobre los cromosomas, contienen moléculas de azúcar. Los ácidos nucleicos (principalmente él ácido dexosirribonucleico o DNA), junto con ciertas proteínas, nucleoproteínas, forman las bases del material hereditario, cuyas «instrucciones» regulan todas las actividades de un organismo.

En otros post hemos visto, los hidratos de carbono (o carbohidratos), las grasas (o lípidos) y las proteínas, constituyen compuestos orgánicos que, en variables proporciones, se encuentran en el protoplasma de la. célula, tanto animal como vegetal.

Si bien estos compuestos del carbono son, además de las fuentes permanentes de energía, los proveedores de los elementos que se transforman en sustancia viva, no por esto, todo es material de restauración, ni combustible que se emplee de inmediato: gran parte es almacenado cómo reserva, y es así como las plantas guardan en sus diversos órganos sustancias amiláceas (almidón secundario), lípidos (en semillas, frutos y cortezas) y reservas proteicas (yemas y bulbos, y aleurona en semillas), y los animales, grasas (compuestas por glicerol y ácidos grasos) que acumulan como material energético que oportunamente empleará el organismo.

En el cuerpo humano, por ejemplo, las grasas dedepósito o lípidos de reserva, yacen, sobre todo, en el panículo adiposo subcutáneo (la mitad de la grasa total del organismo), envolviendo los ríñones, en el mesenterio y entre los espacios intermusculares. En los distintos animales, la composición, consistencia y proporción del tejido adiposo varía con el régimen alimenticio y con el clima La fauna circumpolar y muchos mamíferos marinos se protegen con una gruesa capa aislante de tocino (de más de cuarenta centímetros de espesor en las ballenas) que impide la pérdida de calor del cuerpo en el agua.

Los animales hibernantes (o de reposo invernal) reducen la frecuencia cardíaca y respiratoria, así como su metabolismo, y viven durante el período de letargo a expensas de su grasa de depósito. Las plantas almacenan materiales energéticos para los períodos de inactividad fotosintética: la reserva más común es el almidón (sustancia insoluble en agua) que se deposita en tallos y raíces, para ser transformado nuevamente en azúcares para su asimilación.

La semilla acumula alimento (proteínas, grasas, almidones) para el germen, en los tejidos nutricios (albumen) que acompañan al embrión, o en los cotiledones.

La plántula vivirá y se desarrollará merced a ese alimento hasta el momento en que funcionalmente pueda obtenerlo del medio en que vive. Entre los carbohidratos del grupo de los polisacáridos, hemos nombrado ya a la celulosa. La celulosa responde a la fórmula (C6H10O5) y constituye el tejido de sostén en la arquitectura de las plantas. (En las largas cadenas de una compleja molécula de celulosa, n puede representar millares.)

Forma la pared resistente de la célula vegetal y su estructura fibrosa le confiere enorme importancia industrial como material textil. (Su gran valor para la industria, reside en el hecho de que es insoluble en la mayoría de los solventes, aunque al ser atacada por ácidos, como el nítrico, acético o sulfúrico, origina esteres de fácil disolución en solventes orgánicos.).

La celulosa tiene una gran variedad de aplicaciones (sedas artificiales, papel, celuloide, explosivos, etc.), que abarcan desde los tejidos que el hombre viene utilizando desde los albores de su industria (por ejemplo, el algodón, muchos siglos antes de Cristo) hasta los plásticos, a los cuales los nuevos y constantes adelantos de la ciencia y de la técnica otorgan ilimitadas posibilidades.

Los compuestos orgánicos llamados proteínas, que constituyen los elementos fundamentales del pro-toplasma celular de los seres vivientes, se caracterizan por contener invariablemente nitrógeno, además del carbono, el hidrógeno y el oxígeno (y eventualmente, azufre, fósforo, hierro y yodo).

La molécula proteica (la mayor y más compleja de todos los elementos protoplasmáticos) cuya estructura no es cabalmente conocida, se sabe no obstante que está formada por unidades más simples, los aminoácidos (se han señalado alrededor de treinta y cinco aminoácidos distintos, veinticinco de los cuales fueron identificados por investigaciones posteriores). Los aminoácidos difieren en la estructura de sus fórmulas, aunque en todos ellos figure un grupo básico amino (NH2) y un grupo ácido (COOH).

Las proteínas representan elementos imprescindibles para la nutrición del organismo, pues además de suministrar energía, es a sus expensas que se reponen los materiales de desgaste, y se reparan tejidos, plasma sanguíneo, hemoglobina y la proteína orgánica que incesantemente es catabolizada. La deficiencia de proteínas en el organismo, se traduce, entre otros trastornos, en alteraciones funcionales y disminución de la resistencia a las infecciones y traumatismos.

Sólo ciertos aminoácidos pueden ser sintetizados por el organismo animal (los vegetales los sintetizan a todos). Se denominan entonces esenciales los aminoácidos que, siendo imprescindibles en la dieta del individuo, el organismo no puede sintetizarlos y debe procurárselos mediante la ingestión directa o indirecta de vegetales (el término esencial no implica preponderancia de un aminoácido sobre otro).

Las proteínas formadas solamente por aminoácidos, como son las que se encuentran en la leche (caseína), en la clara del huevo (albúmina), la queratina de las estructuras córneas de los animales (astas, pezuñas, pelo, uñas) se denominan simples.

Las que se componen de aminoácidos y otros complejos orgánicos, como la’ hemoglobina, las lipo-proteínas, las glucoproteínas y las nucleoproteínas, constituyen proteínas conjugadas. La importancia que el déficit proteico tiene para la salud, es hoy bien conocida por la medicina, de manera que es posible corregir los trastornos que esta carencia produce, mediante una adecuada dieta.

Repetidas experiencias indican que, en el hombre, es suficiente un gramo de proteína por kilogramo de peso y por día, tratando de que, la mayor proporción corresponda a proteínas de origen animal (leche, carne, visceras glandulares, huevo).

CONCEPTO Y CLASIFICACIÓN:
Se designa con el nombre de proteínas un conjunto de sustancias nitrogenadas muy complejas, que se encuentran formando parte de la materia viviente. Su importancia fundamental se debe al papel que desempeñan en la formación y funciones de la célula viva; hasta ahora, ésta constituye, precisamente, el único sistema capaz de sintetizarlas.

Las proteínas se encuentran profusamente en el proto-plasma celular, en los virus, en los genes, en los anticuerpos, etc. Están compuestas de carbono, hidrógeno, oxígeno y nitrógeno, en una proporción sensiblemente constcrnte; casi todas poseen, además, azufre, aunque este elemento no es indispensable.

Entre sus propiedades generales, merecen destacarse:
1°) tienen elevado peso molecular, que oscila entre 10.000 y 1.000.000 de unidades (la sal común o cloruro sódico, por ejemplo, no llega a 60 unidades);
2°) como consecuencia de su elevado peso molecular, forman soluciones coloidales con el agua;
3°) son muy inestables frente a los cambios de temperatura y acidez (pH);
4°) en solución, constituyen iones anfóteros, es decir, ,se comportan unas veces como ácidos y otras como bases; por eso actúan como dipolos frente a campos eléctricos.

Las proteínas están formadas, generalmente, por una serie de unidades más sencillas, que se denominan aminoácidos porque llevan un grupo amínico (-NH2), de carácter básico, y un grupo carboxilo (-COOH), de carácter ácido; de aquí las propiedades anfóteros de todas las proteínas. Los aminoácidos constituyen los eslabones de la gran molécula proteica. Las proteínas se pueden clasificar en sencillas (simples) y conjugadas. Las primeras son aquellas que por hidrólisis (escisión por el agua) rinden exclusivamente aminoácidos; las segundas son las que están formadas por un grupo proteico (una proteína sencilla) y un grupo prostético (un agrupan-tiento orgánico distinto de las proteínas).

En las proteínas sencillas se agrupa, a su vez, otra serie de ellas, clasificadas de acuerdo con sus solubilidades:
1°) albúminas, solubles en agua y soluciones salinas;
2°) globulinas, insoluoles en agua y solubles en soluciones salinas;
3°) prolaminas, insolubles en agua y en alcohol absoluto, pero solubles e» alcohol al 70 %;
4°) glutelinas, insolubles en disolventes neutros (agua, soluciones salinas, etc.) y solubles en ácidos y álcalis;
5°) escleroproteínas, insolubles en agua y no hidrolizables por las enzimos proteolíticas. Se dividen en colágenos, que, tratadas con agua hirviendo, dan gelatinas; elastinas, que no dan gelatinas y se encuentran en los tejidos elásticos; queratinas —existentes en los pelos, uñas y cuernos—, caracterizadas por su gran proporción de azufre,
6°) distónos, poseen carácter básico y se encuentran en los tejidos glandulares;
7°) protaminas, muy semejantes a las histonas, pero de peso molecular más bajo. No contienen azufre y, por tanto, poseen un elevado porcentaje de nitrógeno.

Las proteínas conjugadas se clasifican en varios grupos, según el grupo prostético que proporcionen: por hidrólisis:
1°) nucleoproteínas, en las que el grupo prostético es de ácido nucleico;
2°) mucoproteínas, que contienen aminoazúcares como grupo prostético;
3°) lipoproteínas, grupo prostético de fosfolípidos y esferoides;
4°) cramoproteínas, pigmentos coloreados, como la hemoglobina, la clorofila y las flavoproteínas;
5°) fosfoproteínas, que contienen, como grupo prostético, ácido fosfórico (caseína, vitelina, etc.); son solubles en álcalis;
6°) metolproteínas, que portan elementos metálicos (hierro, magnesio y cobre).
Esta clasificación no es rígida, puesto que algunas proteínas podrían incluirse en varios grupos; así, la hemoglobina, que está clasificada como cromoproteína por su color, podría estar incluida en las metolproteínas, porque contiene hierro.

Proteína vegetal versus proteína animal
Hasta hace poco se creía que los vegetarianos debían combinar diferentes fuentes de proteínas en cada comida para obtener los ocho aminoácidos que proporcionan proteínas completas. La razón es que la mayoría de las proteínas de origen vegetal (que no contienen los ocho aminoácidos esenciales) son incompletas. Los consejos más recientes, sin embargo, afirman que una dieta variada, que contenga una amplia gama de alimentos proteínicos vegetarianos, es suficiente, y es innecesario tener que preocuparse demasiado por consumir proteínas completas en cada comida.

No obstante, la Sociedad Vegetariana hace una excepción con los niños pequeños, a cuyos padres se les aconseja que utilicen el método de la combinación en cada comida para garantizar la ingesta adecuada de proteínas. Este método consiste en mezclar legumbres con cereales (por ejemplo, judías sobre una tostada, pita y puré de garbanzos, arroz y ensalada de judías), cereales con un producto lácteo (queso sobre una tostada, cereales y leche) o legumbres con féculas (patatas y lentejas guisadas).

Los estudios con vegetarianos adultos demuestran que éstos tienden a consumir menos proteínas que los no vegetarianos. Sin embargo, corno ya hemos visto en el primer capítulo, muchos de nosotros comemos más proteínas (en ocasiones, muchas más) de las que necesitamos.

¿Qué cantidad de proteínas deberíamos tomar?
Las autoridades sanitarias recomiendan que hasta un 15 % de las calorías de nuestra dieta provenga de las proteínas. La OMS sugiere entre un 10 y un 15 %, un intervalo con el que coincide la mayoría de profesionales de la nutrición. Una guía más precisa, según los especialistas, consiste en calcular 0,75 g de proteínas por día y kilogramo de peso, lo que se acerca al nivel del 10 % en la mayoría de los casos. Esta cifra es menor que la cantidad media que se toma en la actualidad (13,5 % aproximadamente); es decir, muchas personas toman más proteínas de las necesarias. Reducir ligeramente el consumo de proteínas permite el aporte de más calorías a partir de hidratos de carbono complejos, muy importantes para la salud. El cuadro superior muestra la ingesta recomendada de proteínas según el cálculo de 0,75 g por día y kilogramo.

¿Qué pasa si tomamos demasiadas proteínas?
Cada gramo de proteínas contiene 4 calorías. Todas las proteínas que consumimos y no son necesarias para las funciones anteriormente mencionadas pueden ser convertidas en glucosa y utilizadas como fuente de energía. Teniendo en cuenta que las fuentes animales tradicionales de proteínas son más caras que las fuentes de energía que proceden de los hidratos de carbono, es posible que su bolsillo también prefiera no gastar el dinero en proteínas que no necesita.

Por supuesto, si la ingesta media actual de proteínas se cifra en un 13,5 %, se deduce que algunas personas consumen una cantidad muy superior. Una dieta rica en proteínas (sobre todo, en proteínas de origen animal) ha sido relacionada con la desmineralización de los huesos: en la orina se excreta más calcio, por lo que las mujeres deben tener especial cuidado en reducir el consumo de proteínas a menos del 15 %. Se tienen claros indicios de que las dietas ricas en proteínas (en especial, las de origen animal) ejercen un efecto perjudicial a largo plazo en la función renal. Asimismo, se cree que el consumo elevado de proteínas puede estar relacionado con la hipertensión.

Por estas razones, las autoridades sanitarias recomiendan que el consumo diario de proteínas no sobrepase 1,5 g por kilogramo de peso corporal. Por ejemplo, para una mujer de 63,5 Kg. resulta una cifra de 95 g de proteínas por día, o menos de 20 % de las calorías totales diarias (lo que demuestra que, a pesar de lo esencial de las proteínas, sobrepasar muy ligeramente y de forma habitual las cantidades que se aconsejan puede ocasionar problemas).

Fuente Consultada:
Las Claves de la Ciencias de la Salud
Nuevo Estilo de Vida-Disfrútalo Tomo I
Los Alimentos Que Consumimos Judtih Wills

Nanociencia Nanotecnologia Que es la Nanociencia? Aplicaciones de la

Nanociencia Nanotecnologia ¿Qué es la Nanociencia?

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”. La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas. Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES: E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: «Hay mucho lugar allá abajo» y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un «nanómetro», o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas. El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa. (Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos. Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa? ¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas? ¿O un “acero” tan liviano como el plástico y un interruptor sin cable? ¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm). Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información. Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

El significado de la «nano» es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro. También: 1 milímetro = 1.000.000 manómetros. Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de «ver» y «tocar» a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de «ver» átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble. Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material. Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

La palabra «nanotecnología» es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas «nanos» que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO
Pero esta revolución plantea una cantidad infinita de preguntas. Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos. Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores. A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central. Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas. Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO
El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia. A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento. La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano. Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados. Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera: El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales. Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales. El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada. Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer: Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes. La prueba más reciente puede detectar concentraciones mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande. En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO: Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero. «Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías», asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina. «En unos años, veremos pantallas de este material en todas partes.»

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles. También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz. Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos. Y hay más: «el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015″.

LOS FULLERENOS, Historia
Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamante -sustancia de gran dureza que no conduce la electricidad- y de grafito -material bastante blando y buen conductor de la electricidad- Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial. Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos.

Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno. Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado.

En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos. ¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química. Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura. Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.
Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA: Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: «A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo».

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra «nanotecnología» en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:
> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

La materia y los cuatro elementos tierra agua fuego aire Fundamental

La materia y los Cuatro Elementos
Tierra, Agua ,Fuego, Aire

QUE ES LA MATERIA?

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales y, a la vez, vemos la desintegración de muchos de estos cuerpos: las montañas sufren la erosión del viento y del agua, que convierten en polvo lo que fueron inmensas piedras, la materia orgánica que forma a los seres vivos se degrada en componentes microscópicos por la acción de bacterias y otros organismos. ¿Hasta qué punto puede llegar en la desintegración de un objeto material?

Si tomamos una hoja de papel y la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso? Esta pregunta la formularon los griegos (y probablemente también otras civilizaciones) hace muchos siglos. Algunos, como Aristóteles, creían que el proceso de división de algo material era infinito, o dicho de otro modo: afirmaban que la materia es continua. El espacio entre los astros estaría ocupado por la materia más sutil y perfecta: el éter.

Aristóteles afirmaba que el espacio está completamente lleno de sustancia y, por consiguiente, que el vacío no existe.

La materia y los cuatro elementos tierra agua fuego airePor otro lado, Demócrito, que nació algunos años antes que Aristóteles, postulaba que al dividir un cuerpo material se podría llegar (con instrumentos con los que él no contaba) a obtener una porción mínima de materia que ya no sería divisible. A esta partícula la llamó átomo (palabra que en griego significa precisamente “no divisible”) y a su postura se la llama atomismo. Ciertamente, estas conjeturas no estaban respaldadas por ningún tipo de experimentación y se debatían sólo en el ámbito del pensamiento abstracto al que los griegos eran tan proclives.

Demócrito afirmaba que “lo único que existe son los átomos y el vacío”.

En todos los tiempos, para los que creían en la existencia del átomo fue una cuestión fundamental estimar cual sería, aproximadamente, su tamaño. Los antiguos ya habían notado que con una pequeñísima cantidad de tintura podía teñirse una inmensa cantidad de agua.

Esto les daba la pauta del increíble número de átomos presentes en una pequeña porción de materia Pero hubo que esperar hasta el siglo XVIII para obtener números que aproximaran un orden de magnitud para el tamaño del átomo. Hubo varias experiencias similares, entre ellas, la de Benjamín Franklin (1706-1790), quien en 1773 notó que una cucharada de aceite (unos 4 cm3 de volumen) derramada sobre la superficie tranquila de un lago se extendía abarcando un área de 2.000 m². A partir de esto dedujo que el tamaño de la molécula de agua no podía superar el valor:

4cm3/2.000m² 2.1O-7 cm

El valor promedio que actualmente se acepta para el tamaño del átomo es 10-8 cm.

A lo largo de la historia, el atomismo pasó por largas etapas de olvido y resurgió con fuerza en otros momentos. Inicialmente, mientras las ideas de Aristóteles marcaban el camino del conocimiento, el concepto de átomo fue dejado de lado. Pero a medida que la Física y la Química se fueron afirmando como ciencias, la existencia del átomo salió del ámbito de la especulación filosófica y surgió como necesaria a partir de la investigación de la materia, pero con características diferentes de las que Demócrito le había asignado. El átomo, tal como se lo conoce en la actualidad, ya no es una microscópica esferita sólida, indivisible, eterna e inmutable, sino que tiene una estructura interna cuya complejidad aún no termina de desentrañarse.

De todas maneras, todavía a principios del siglo XX la teoría atómica estaba en discusión y eminentes científicos (entre ellos, el Premio Nobel de Química Wilhelm Ostwald consideraban al átomo como una ficción muy poderosa, pues explicaba muchos de los comportamientos macroscópicos de la materia, a la cual no podían dar crédito.

Ver: El Átomo

Los primeros elementos: Tierra, Aire, Agua y Fuego

Una cuestión que sigue lógicamente a la postulación de la existencia de los átomos es la siguiente: ¿Existe un solo tipo de átomos que forman, según su disposición, todas las sustancias conocidas, o existen muchas variedades diferentes? Y si hay muchas variedades, ¿cuántas son? ¿Y en qué se diferencian los distintos átomos?

Así como la enorme cantidad de palabras de un idioma se arma a partir de unas pocas decenas de letras, todos los objetos que podemos conocer ¿estarán formados a partir de unos pocos constituyentes elementales?

Si prendemos fuego a un trozo de leña verde veremos que, a medida que la combustión avanza, el liquido (savia) en su interior burbujea, emanan vapores y, finalmente, cuando el fuego se extingue, sólo queda un polvo oscuro. Probablemente fue basándose en observaciones de este tipo que muchas de las civilizaciones antiguas, entre las cuales surgió la pregunta por los constituyentes elementales de la materia, llegaron a una respuesta similar: todos los cuerpos están compuestos por sólo cuatro constituyentes elementales: agua, aire, tierra y fuego. De acuerdo con esta concepción, las distintas sustancias que existen se diferencian según la proporción en que está presente cada elemento.

Algunos asociaban distintas formas y tamaños con los átomos de cada elemento: por ejemplo, los átomos de agua serían esferitas perfectas que les permitirían deslizarse unas sobre otras, mientras que los de tierra tendrían formas irregulares que los ayudarían trabarse entre sí dando más rigidez a la sustancia de la que participaran.

Aristóteles, en particular, adhería a esta teoría, pero agregaba un quinto elemento o quinta esencia: el éter, que formaba la esfera celeste.

Es interesante notar que existe un paralelismo entre los cuatro elementos y las formas en que la materia puede presentarse:

FUEGO——>ENERGÍA
AGUA——>LIQUIDO
TIERRA——>SÓLIDO
AIRE——>GASEOSO

El concepto de estos cuatro elementos primordiales fue mantenido durante siglos. Los egipcios y los árabes experimentaban y manipulaban sustancias en busca de combinaciones útiles para ramas tan diversas como la Medicina, los cosméticos, la metalurgia o el embalsamamiento.

En Europa, durante la Edad Media, los alquimistas fueron los herederos de esta tradición. La idea básica que manejaban era la de la transmutación. Esto implicaba la alteración de las proporciones de los cuatro elementos fundamentales presentes en una sustancia para obtener otra diferente.

Si bien la Alquimia, con su dosis de magia y sus métodos primitivos, estaba muy lejos de poder lograr su objetivo, permitió la producción y el reconocimiento de muchas nuevas sustancias (arsénico, cinc, bismuto, fósforo; los ácidos sulfúrico, nítrico y clorhídrico; las sales carbonato de sodio, sulfato de amonio y sulfato de sodio; etc.) y sentó las bases de lo que sería más tarde la experimentación química. Por otro lado, la idea de transmutar una sustancia en otra no era disparatada, y siglos más tarde los científicos modernos pudieron llevarla a cabo en sus laboratorios.

PROPIEDADES: Distintos tipos de materia poseen diferentes propiedades que las vuelven útiles para determinadas aplicaciones. El titanio, por ejemplo, es resistente y liviano al mismo tiempo; el cobre es buen conductor de la electricidad y se puede moldear en hilos para fabricar cables. El plástico no es corroído por los ácidos y se puede utilizar como recipiente. Los ejemplos son innumerables

Propiedades extensivas
Se trata de características relacionadas con i la cantidad de la materia, que permiten clasíficar cuerpos y sistemas materiales.

VOLUMEN:Se refiere aL espacio que ocupa la materia. En el caso de los líquidos, el volumen suele medirse en ütros. Para los sólidos, lo más habitual es utilizar metros cúbicos.

MASA: Se la define corno la cantidad de materia presente en un objeto, aunque para los físicos el concepto es algo más complejo. Para la física clásica es una medida constante y se mide en kilogramos.

PESO: Para definir el peso entra en juego también la fuerza fie gravedad, ya que se trata de la fuerza que ejerce la gravedad sobre un objeto, A mayor masa, mayor será el peso. Del mismo modo, mayor será el peso cuanto mayor sea la fuerza de gravedad.

Propiedades intensivas
No dependen sólo de la cantidad de la materia, sino del tipo de material. En muchos casos, son funciones de dos propiedades extensivas.

DENSIDAD
Surge de relacionar la masa de un cuerpo sobre su volumen. Por definición, se conside que la densidad del agua es de 1.000 kg/m3
Utilidad                                         Densidad (1.000 kg/m3)
Agua……………………………………………………….1.000
Aceite………………………………………………………920
Planeta Tierra…………………………………………. 5.515
Aire …………………… …………………………………. 1.3
Acero……………………………………………………… 7.850

SOLUBILIDAD
Es la capacidad que tienen algunas sustancias de disolverse en otras.

DUREZA
Se define como la resistencia que opone una sustancia a ser rayada por otra. La sustancia con mayor índice de dureza raya a la de menor índice de dureza.

La escala de Mohs
Se utiliza en mineralogía y establece la dureza de un mineral de acuerdo con una tabla:
Talco: El paso de una uña basta para rayarlo
Yeso: Una uña puede rayarlo, pero con mayor dificultad
Calcita: Se la puede rayar con una moneda
Fruorita: Un cuchillo puede provocar el rayón
Apatito: Se raya con un cuchillo y algo de fuerza
Ortoclasa: Se raya con lija de acero
Cuarzo: Raya el Vidiro
Topacio: Raya el  cuarzo
Coridón: Raya el topacio
Diamante: Raya el material mas duro

PUNTO DE FUSIÓN
Vulgarmente se lo define como la temperatura en la que un sólido se vuelve líquido.

PUNTO DE EBULLICIÓN
Generalmente se lo define como la temperatura a partir de la cual una sustancia líquida se vuelve gaseosa.

CONDUCTIVIDAD
Es la capacidad de una sustancia de permitir el paso de una corriente eléctrica, del calor o del sonido, a través de sí misma, Los metales suelen ser buenos conductores eléctricos, como el cobre, muy utilizado para fabricar cables.

OTRAS PROPIEDADES
Además de las citadas, existen otras numerosas propiedades intensivas para clasificar la materia. Algunas de ellas son índice de refracción, tenacidad, viscosidad, maleabilidad, etc.

Ver: El Átomo Para Principiantes

Biografia de Franklin Benjamin Inventor del Pararrayos Vida y Obra

Biografia de Franklin Benjamín Inventor del Pararrayos

BENJAMIN FRANKLIN (Boston, 17 de enero de 1706 – Filadelfia, 17 de abril de 1790): Una de las figuras más típicas del siglo XVIII en América del Norte es la de Benjamín Franklin, uno de los hombres que más contribuyó a preparar el ambiente de emancipación de las colonias británicas, cuya causa defendió con sin igual acierto en el transcurso de sus viajes y misiones a Inglaterra y Francia.

Impresor, publicista, literato, filósofo — en el sentido del siglo XVIII, esto es, crítico y experimentador en el campo de los fenómenos físicos —, Franklin fue para la sociedad enciclopedista europea el más cabal representante de un mundo ingenuo, natural, espontáneo y libre, nacido de la feliz conjugación de los factores sociales en un país sin privilegios, sin castas y sin coacciones de ninguna clase.

Para los Estados Unidos fue un modelo de claridad en las ideas, un escritor elegante, un bienhechor social de gran talento y uno de los padres de la patria redimida.

biografia de Franklin Benjamin

Recibió una educación bastante esmerada, primero en la escuela primaria y luego en el centro regentado por Jorge Brownell. El padre quería que Benjamín se dedicara a la carrera eclesiástica, pero él  soñaba en las aventuras de la vida en el mar. Para darle una ocupación, le colocó en casa de su cuñado James, impresor de la localidad. Mientras trabajaba componiendo textos, Benjamín los devoraba. Así leyó las obras de Locke, Plutarco y Defoe, las cuales ejercieron una profunda impresión en su joven espíritu.

Benjamín Franklin, científico (1706-1790):  Filósofo, político, físico, economista, escritor y educador, figura clave en la Independencia de los Estados Unidos de Norteamérica, creó las bases de lo que hoy se entiende como «el ciudadano americano ejemplar».

Era el decimoquinto de los hijos y comenzó a aprender el oficio de su padre, que era un pequeño fabricante de velas y jabón.

Cansado de este trabajo, se colocó a los 12 años en la imprenta de un familiar, desarrollándose así su amor a la cultura. El escaso tiempo libre lo empleaba en devorar todo tipo de libros que caían en sus manos.

Sus primeros versos y artículos los publicó en un periódico que su cuñado había fundado. A los 17 años, debido a discusiones con él, se traslada a Nueva York para hacer fortuna. Respaldado por el gobernador de Filadelfia, instala una imprenta y decide ir a Londres a comprar el material.

Allí, olvidándose un poco de sus propósitos principales, trabaja en la imprenta Pelmer, conociendo a distinguidas personalidades.

Cuando tenía dieciocho años, viajó de Filadelfia a Londres, -con la expectativa de unas cartas de recomendación que finalmente no dieron resultado. Sin embargo, encontró trabajo de impresor.

Siendo todavía adolescente, los libros que imprimía y sus propios escritos lo pusieron en contacto con algunas de las figuras literarias del momento. Cuando tenía veinte años volvió a Filadelfia para trabajar en la tienda de un amigo.

Muy poco después volvió a dedicarse a la impresión y, en 1730, cuando tenía veinticuatro años, contrajo matrimonio con una novia anterior, Deborah, que se había casado mientras él estaba en Londres, pero a la que había abandonado su marido. Fue una unión que duró hasta su muerte, cuarenta y cuatro años después.

La naturaleza del rayo: Franklin se interesó por la ciencia en esa época. Durante el resto de su vida, aunque comprometido con la escritura, la edición, la política y la diplomacia, se mantuvo al tanto de los últimos descubrimientos gracias al contacto con otros científicos y a sus propios experimentos.

En 1743 fundó la primera sociedad científica norteamericana, la American Philosophic Society. También encontró tiempo para desarrollar unas cuantas invenciones notables, incluidos los pararrayos, las lentes bifocales y la estufa de Franklin.

Franklin estaba particularmente interesado en la electricidad y en el magnetismo, que en aquellos momentos se comprendían muy poco.

En 1745, un físico holandés llamado Píeter van Musschenbroek, que vivió en la ciudad de Leiden (o Leyden), inventó un dispositivo de almacenamiento eléctrico que se conoció como «la botella de Leiden»; y sería la experiencia de Franklin con este ingenio la que inspiró su experimento más famoso.

Las botellas de Leiden, al ser tocadas, producían una chispa y una descarga eléctrica. Sospechando que el rayo era una forma de electricidad similar a la chispa de la botella de Leiden, Franklin decidió intentar capturar la electricidad de un rayo en una de sus botellas.

Un día de 1752, conectó un alambre a una cometa de la cual pendía un hilo de seda atado a una llave. Hizo volar su cometa hacia un nubarrón y, cuando colocó su mano cerca de la llave, una chispa saltó entre ambas.

Después consiguió cargar la botella con la energía del rayo, a través de la llave, al igual que podía haberla cargado con una máquina generadora de chispas.

Fue una emocionante demostración de que el rayo y la humilde chispa de la botella eran el mismo fenómeno.

Benjamín Franklin, científico:Cuando informó sobre su experimento creó sensación, y corno recompensa fue admitido como miembro en la Royal Society de Londres.

Pero tuvo mucha suerte: las dos personas siguientes en intentar el mismo experimento terminaron electrocutadas.

Realizó varias misiones a Gran Bretaña, pero su principal objetivo fracasó (mantener la unidad del Imperio británico a base del desarrollo de sus colonias americanas), por lo que volvió a Filadelfia en 1774.

Pese a la hostilidad de sus adversarios políticos, regentó nuevos puestos de confianza en las colonias, y cuando éstas iniciaron el movimiento de independencia, fue elegido diputado de la Convención constitucional de Pennsylvania y miembro del Congreso de los Estados Unidos (1776).

Durante la guerra de Siete Años (1756-1763), colaboró con el gobierno de la metrópoli en la lucha contra Francia. Organizó milicias, entró en arduas negociaciones de los piel roja, y, en un momento de apuro, consolidó personalmente la frontera septentrional de la colonia.

Fue nombrado embajador en Francia para procurar el auxilio de la monarquía de Luis XVI a los colonos.

En París, Franklin causó la sensación del gran mundo y la admiración de nobles, intelectuales, enciclopedistas y revolucionarios. Gracias a su predicamento y a sus influencias masónicas, obtuvo la intervención de Francia en la guerra y la victoria final de su causa.

En 1785 renunció al cargo de embajador en París y regresó a su patria. Intervino aún en la discusión de la carta constitucional norteamericana de 1787, en términos de moderación y compromiso entre las corrientes opuestas de republicanos y federales.

Fue nombrado director general de Correos y ya entonces propuso en el Congreso de Alvan un proyecto para unir las colonias.

En 1776, firmó la Declaración de la Independencia, ganándose hábilmente las simpatías de franceses, españoles y holandeses.

Hasta 1785 estuvo de embajador en París, donde se hizo muy popular en las logias francmasónicas, e intervino en la paz con Inglaterra, contra la que había luchado en pro de las libertades de Estados Unidos.

A su regreso fue recibido esplendorosamente y elegido presidente del estado de Pennsylvania hasta 1789, año en que se retiró, tras formar parte de la Convención que desarrolló la Constitución de su país.

Murió en 1790, abrumado de honores científicos y títulos de diversas universidades de Europa y Norteamérica. Veinte mil personas asistieron a su funeral en Filadelfia. Había hecho buen uso de sus dos años de escuela.

Experimento de Franklin

AMPLIACIÓN SOBRE FRANKLIN….

Aunque se lo recuerda sobre todo como hombre de estado, Benjamín Franklin realizó también valiosas contribuciones al conocimiento científico.’Nació en 1706 y era el número quince de los hijos de una modesta familia de Boston. Fue, principalmente, autodidacto, pero asistió durante algún tiempo a la escuela local.

A la edad de 12 años era aprendiz de impresor. Cinco después dejó su ciudad natal para dirigirse a Filadelfia, donde continuó dedicado a ese trabajo.

En 1729 se estableció y abrió con buen éxito su propia impresora, y compró la Pensilvania Gazette. Poco después, inició su carrera política como -secretario de la asamblea general de Pensilvania.

En 1751 fue elegido miembro de esta Corporación y de 1753 a 1774 lo nombraron administrador general de correos de las colonias norteamericanas. Visitó Inglaterra en diversas ocasiones, a fin de negociar con el gobierno británico asuntos de interés para los colonos.

Fue durante es los viajes cuando realizó una serie de experiencias que demostraron las características y- el curso de la corriente del golfo de México, una corriente de agua templada que se dirige desde el golfo, por la costa este de Norteamérica, hacia el Norte, y en las costas de Newfoundland cambia de rumbo, hacia el Este y atraviesa el Atlántico.

Para levantar la, carta de esta corriente, determinó la temperatura del agua del océano a diversas profundidades. Las naturalezas del trueno y del rayo habían interesado durante siglos a los científicos y a los filósofos, pero a Franklin lo llevó este interés a investigarlas experimentalmente.

Para ello, preparó un barrilete, que fijó con un clavo al extremo de un cordel. Cerca^del otro extremo lo prendió con una llave. Lanzó el barrilete cuando pasó sobre su cabeza un nubarrón -tormentoso y, en seguida, saltó de la llave una gran chispa eléctrica. Pudo ser algo muy peligroso, puesto que no había preparado ningún aislador en esta parte del cordel del barrilete.

Como la lluvia empapaba el cordel, ello incrementaba su conductividad eléctrica; la electricidad fluía libremente por dicha cuerda y pudo comprobar que poseía las mismas propiedades que la electricidad generada por fricción. El feliz resultado de esta experiencia condujo a la utilización de los pararrayos para proteger los edificios, especialmente los de más altura.

Realizó, además, otra contribución al estudio de la electricidad: demostró la existencia de cargas positivas y negativas. Aunque no está claro quién fue el inventor de las lentes bifocales, fue él ciertamente el primero que las describió. Antes, si una persona necesitaba dos clases de lentes para leer y para ver objetos lejanos, era forzoso que dispusiese de dos anteojos distintos.

Sin embargo, esta dificultad fue superada al unir en un mismo cristal dos medias lentes diferentes. La inferior proporcionaba los aumentos adecuados para la lectura y la superior, de menor aumento, se podía utilizar para enfocar objetos distantes.

Franklin estaba demasiado entregado a las actividades políticas para poder prestar a las científicas las atenciones deseables. Ayudó a redactar la Declaración de la Independencia de los Estados Unidos y, poco después, en 1790; «murió cuando abogaba por la abolición de la esclavitud de los negros.

Fuente Consultada:
Historia de las Ciencias Desiderio Papp y Historias Curiosas de la Ciencia
Revista TECNIRAMA N°43

Francis Bacon Biografia del Filosofo Empirista Filosofo Renacentista

Biografía de Francis Bacon
Filósofo Renacentista Empirista

 Francis BaconFrancis Bacon (Londres 1561-1626) es el filósofo de la ciencia original, el primero que describió no sólo las ambiciones intelectuales características de la ciencia moderna, sino también las organizaciones donde ésta se desarrolla. Hombre brillante, socialmente ambicioso y arrogante, en su prolongada carrera pública Bacon ostentó altos cargos en la administración y escribió extensamente sobre los beneficios públicos de lo que ahora se calificaría como ciencia aplicada.

Hombre político sinuoso, pero extraordinario lógico, el autor del Novum organum no sólo se sublevó contra la dictadura de Aristóteles y de Santo Tomás, sino que, contraviniendo el método tradicional, propuso que hay que partir de los hechos para establecer principios generales, en lugar de pasar de los principios a los hechos.

Con una soberana claridad, denuncia las cuatro fuentes de errores que pueden desviar al científico, y, mediante sus tablas de ausencia, de presencia y de grados, indica la forma de clasificar los fenómenos que se presentan al observador. Este método lo empleó más tarde Stuart Mill, aunque ya desde el siglo XVII fue adoptado más o menos conscientemente por todos los investigadores.

En 1573 ingresó en el Trinity College de Cambridge. En 1576 comenzó a estudiar leyes en el Grays de Londres, estudios que suspendió para irse al extranjero como agregado del embajador sir Amyas Paulet. Regresa de Francia al saber de la muerte de su padre y reanuda sus estudios en derecho, literatura y diplomacia. En 1582 ejércela abogacía y llega a ser magistrado. Obtuvo, en 1584, un lugar en la Cámara de los Comunes, que mantuvo por treinta y seis años. Jacobo I lo nombró procurador general en 1607, fiscal de la Corona en 1613 y lord canciller en 1618, además, barón de Verulam y vizconde de Saint Albans.

Fue de los primeros en desechar la escolástica medieval como método de investigación, y propuso el propio.

Como su contemporáneo Descartes, Bacon describió un método científico que puso en suspenso la mayoría de las creencias tradicionales en favor del proyecto de establecer una comprensión del mundo nueva y más amplia.

A diferencia de Descartes, la ciencia de Bacon se basaba en meticulosas observaciones y experimentos e implicaba la cooperación con numerosos científicos. La primera etapa del proyecto de Bacon consistía en reunir grandes cantidades de datos mediante la observación directa y sin prejuicios de todo tipo de cuestiones.

A continuación, se filtraban los datos para evitar errores y absurdos, pese a lo que aún continuarían estando poco elaborados. El siguiente paso consistía en formular hipótesis de leyes generales que explicaran los datos obtenidos. Bacon pensó que se debería buscar un número limitado de características básicas, de modo que las leyes hipotéticas cubrieran todas las combinaciones posibles de dichas características. En este punto se corría el riesgo de que uno se dejara influir por creencias irracionales, de modo que era preciso protegerse de ellas.

En Cambridge, sus estudios de las diversas ciencias le llevaron a la conclusión de que los métodos empleados y los resultados obtenidos eran erróneos. Su reverencia por Aristóteles, del que, a pesar de todo, no parecía tener excesivo conocimiento, contrastaba con su desapego por la filosofía aristotélica. A su juicio, la filosofía precisaba de un verdadero propósito y nuevos métodos para alcanzar ese propósito. Con el primer germen de la idea que le consagraría, Bacon abandonó la universidad.

Bacon agrupó estas influencias en las cuatro clases de ídolos: ídolos de la tribu (errores e ilusiones naturales para el ser humano); ídolos del cuarto de trabajo (énfasis exagerado en las propias experiencias); ídolos del mercado (asumir que distintas personas usan las mismas palabras para describir las mismas cosas); e ídolos del teatro (ideas que desorientan presentadas por los sistemas filosóficos). En cuanto se tuviera la hipótesis, se debería contrastar con los datos existentes. Silos datos no permitieron encontrar pruebas determinantes, podrían obtenerse realizando un «experimento crucial». Esto permitiría comprobar directamente las implicaciones de las hipótesis competidoras, lo que indicaría cuál es correcta.

La observación es la base de las ciencias experimentales; abre el camino a inducciones fecundas que determinan la formación de las grandes leyes científicas. Eso no obstante, las experiencias no se hacen al azar y los científicos actuaban en conformidad con un código de la investigación. Este código, que vale tanto para la física como para las demás disciplinas, fue formulado por el canciller Francis Bacon (1561-1626).

Muchos aspectos de esta metodología encajan perfectamente con la estructura de las ciencias biológica y física, que luego hicieron uso de ella. En concreto, la idea de manipular la naturaleza para producir pruebas que no podrían obtenerse por simple observación es crucial para el método científico. Otros de los elementos propuestos por Bacon parecen hoy bastante inocentes, en particular la idea de que es posible formular un con junto de hipótesis suficientemente rico para cubrir todas las posibles leyes reales, y bastante simple para descubrir la verdad por una sencilla eliminación le las hipótesis propuestas que no encajen con los datos.

Los científicos deben de ser ante todo escépticos y no aceptar explicaciones que no se puedan probar por la observación y la experiencia sensible (empirismo).

La más sabia de las sugerencias de Bacon acaso sea la de que, para entender la naturaleza, es preciso coordinar el trabajo de muchos investigadores, algunos de los cuales reunirán información y otros se dedicarán a sistematizarla. Bacon se daba cuenta de que éste era un empeño costoso, por lo que trató de interesar a las autoridades de su época para que sufragasen los gastos de lo que hoy se denominan asociaciones científicas e institutos de investigación. Al fracasar trató de financiarlos él mismo.

Cuando murió en 1626, Bacon había caído en desgracia por aceptar un soborno en su cargo de juez; desde el principio de la historia de la ciencia, la necesidad de apoyo económico llevó a quienes la practicaban a adoptar medidas desesperadas.

AMPLIACIÓN DE SU BIOGRAFÍA…

Francisco Bacon. — Barón de Verulam, vivió de 1561 a 1626. Nació en Londres y estudió en el Colegio de la Trinidad de Cambridge. Combatió el método aristotélico, cuya filosofía sólo la estimaba apta para las disputas y estéril para la producción de obras prácticas.

Según él, el verdadero camino para encontrar la verdad estaba en la experimentación, seguida de la inducción. Negó el valor de la conjetura y de la hipótesis. Consideró la Matemática como ciencia auxiliar de la Física y a la Astronomía como dependiente de las dos citadas ciencias. Según su criterio, la religión no debe mezclarse con la Ciencia, ni ésta inmiscuirse en aquélla. Escribió varias obras sobre diversos temas, exponiendo en ellas sus doctrinas.

Citaremos sólo las tituladas Novum Organum Scientiarum (Nuevo órgano de las ciencias), De dignitate el augmentis scientiarum (Adelantamiento de las Ciencias), que forman parte de su gran tratado Instauratio Magna (Magna Restauración), en las que propugnaba el método inductivo. Fue uno de los detractores de la concepción astronómica de Copérnico.

Ni los altos puestos desempeñados, ni la publicación de los Ensayos le proporcionaron bienestar económico; hallóse siempre en una situación financiera precaria y contraía deudas usurarias para satisfacer su sed de lujo y grandeza.

En 1598, Bacon, no pudiendo hacer frente a una deuda contraída, fue arrestado a raíz de un juicio iniciado por un usurero; el asunto se arregló pronto, y Bacon, reintegrado a su puesto, volvió a la Cámara de los Comunes. Un nuevo adelanto en su carrera política fue influido por un hecho que tuvo gran resonancia: el proceso del joven y célebre conde de Essex tuvo que comparecer ante la Cámara de los Comunes bajo la inculpación de complotar contra la reina.

Entre los acusadores más encarnizados del conde, que fue condenado a muerte, figuró Bacon, a pesar de haber tenido en él un verdadero amigo y un mecenas generoso. Esta actitud, que a muchos les pareció incalificable, le valió en cambio la estima y buena voluntad de la reina, quien le encargó que hiciera la apología de esa condena. Evidentemente, esta apología no fue acogida en forma favorable por todo el mundo y la mayoría condenaba al autor, que había traicionado a un viejo amigo.

La buena voluntad de la corte, que Bacon había conseguido en esta ocasión, no le faltó ni aun cuando falleció la reina Isabel en 1603; su sucesor, Jacobo I, lo colmó con grandes honores, y al año siguiente, como era lógico, llegó al más alto puesto del Estado. No sólo fue Guardián de los Sellos, como su padre, sino también lord canciller. En 1618 recibió el título de lord barón de Verulam, y en 1621 fue nombrado vizconde de Saint-Alban.

Había sabido adoptar una actitud obsequiosa hacia el nuevo soberano y comprendido que era necesario aprobar los planes de Jacobo I y defender fielmente su programa de política interna contra la oposición continua de la Cámara de los Lores.

En la política extranjera del rey le aconsejaba imitar los métodos empleados por la reina Isabel, pero sin contradecir nunca las decisiones del monarca. Jacobo I y Bacon habían, por lo pronto, comprendido que el gobierno absoluto no serviría para resolver la crisis interna del reino y que agravaría elconflicto entre el pueblo y el soberano.

En el año 1621 el Parlamento, colocado del lado del pueblo, le demostró claramente su descontento al rey, denunciando al mismo tiempo un gran número de abusos de parte del tribunal de la corte, que parecía actuar bajo la influencia de elementos corrompidos.

Se llevó a cabo una investigación ordenada por los Comunes y se estableció la culpabilidad de Bacon, quien fue acusado de corrupción y abuso del poder. Francisco Bacon estaba en cama enfermo cuando se enteró del resultado de la encuesta; la notificación contenía también la nómina de los jefes de la acusación y se otorgaba un plazo de cinco días para presentar su defensa. Bacon no podía defenderse contra una acusación tan precisa y se reconoció culpable, confirmando las conclusiones de la comisión acusadora y sometiéndose a la clemencia de los jueces.

Las sanciones contra él fueron graves: …se le impuso una multa de 40.000 libras y se lo condenó a ser encerrado en la Torre de Londres; además, durante cierto tiempo quedaba interdicto para ocupar cargos públicos.

Jacobo I fue muy generoso con él: su multa le fue condonada y no permaneció en la prisión más que unos días. Recuperó su libertad con la autorización de residir en Londres, beneficiándose también con una pensión.

Obligado a abandonar la política, Bacon se consagró de nuevo a sus estudios, a los cuales había dedicado tanto tiempo en su juventud, y aplicó todo su tiempo a las Ciencias de la Naturaleza. Esta afición fue justamente la causante de su muerte. Un día que excursionaba por las afueras de Londres, tratando de comprobar si la nieve podía preservar aun cuerpo de la putrefacción, se expuso a^una temperatura rigurosa y contrajo una neumonía, muriendo algunas semanas más tarde, el 9 de abril de 1626.

Si bien en el transcurso de los siglos su conducta moral ha sido con derecho muy discutida, su fama como filósofo, empero, ha permanecido inalterada. Esto constituye la confirmación de un hecho: ciencia y moral no coinciden forzosamente en una conciencia.

Se había propuesto escribir una vasta enciclopedia científica, tratada y expuesta según su nuevo método. Esta obra, de acuerdo con su plan primitivo, debía tener seis volúmenes. Escribió sin embargo sólo dos de ellos, de los cuales uno, el Novum organum, no es otra cosa que la exposición comentada de su método. La palabra novum manifiesta claramente la intención hostil respecto del Organon, que tiene por base la lógica silogística aristoteliana.

Fuente Consultada:
LO SE TODO Tomo IV Editorial Larousse – Historia: Francisco Bacon –
Enciclopedia Electrónica ENCARTA Microsoft

Importancia de los Hidratos de Carbono en la Alimentacion

Importancia de los Hidratos de Carbono en la Alimentación

Los hidratos de carbono, son también conocidos como glúcidos por su sabor dulce más o menos intenso (glúcido proviene de la raíz griega gluco, dulce).

Son la principal fuente de energía para todas las funciones del cuerpo, y proporcionan calorías de una forma rápida.

Químicamente, sus moléculas están formadas únicamente por átomos de carbono, hidrógeno y oxígeno. Según el tamaño de su molécula, los hidratos de carbono se clasifican en tres grupos: monosacáridos, disacárídos y polisacáridos. A los dos primeros se los llama también azúcares.

Composición química:
Monosacáridos

Están formados por una sola molécula, y pueden ser asimilados y absorbidos de forma directa y rápida por el organismo.

Los monosacáridos más comunes en la naturaleza son la glucosa o dextrosa, y la fructosa o levuloso. Ambas están formadas por los mismos átomos, y difieren tan solo por su distribución en la molécula. La glucosa y la fructosa se encuentran en todas las frutas, así como en la miel.

Disacáridos
Son hidratos de carbono formados por dos moléculas de monosacáridos. Para ser aprovechados por el organismo, los disacáridos se han de descomponer en sus dos moléculas elementales, tarea que llevan o cabo las enzimas durante el proceso de la digestión. Los disacáridos más comunes son:

• La sacarosa o azúcar de caña, que también se encuentra en la remolacha, el plátano, la piña tropical o ananás y en otras muchas frutas. Está formada por la conjunción de una molécula de glucosa y otra de fructosa, que al unirse pierden una molécula de agua:

glucosa + fructosa = sacarosa ± agua

• La maltosa, que se encuentra principalmente en la malta procedente de la cebada, y también en otros cereales. Está formada por dos moléculas de glucosa.

• La lactosa, que se encuentra en la leche de los mamíferos, en proporción de unos 40 gramos por litro en la leche de vaca, y unos 50 a 60 en la leche humana. Su molécula resulta de la combinación de dos monosacáridos: glucosa y galactosa.

Polisacáridos

Son hidratos de carbono complejos, cuya molécula está formada por la unión de muchos monosacáridos generalmente glucosa. Se encuentran sobre todo en los granos de los cereales (trigo, arroz, cebada, maíz etc.), así como en las raíces y tubérculos (patata, nabo, etc). Existen tres tipos de polisacáridos o hidratos de carbono complejos:

Almidón: Su molécula está formada por largas cadenas de moléculas de glucosa, unidas de una forma especial. Se encuentra en semillas, raíces, tubérculos, hojas y frutos, y es el principal componente de la harina.

El almidón lo producen únicamente los vegetales. Los animales lo aprovechan a base de separar, durante el proceso de la digestión, las diversas moléculas de glucosa que lo forman. Este proceso lo llevan a cabo unas enzimas llamadas amilasas, que son segregadas junto con la saliva y sobre todo en el páncreas. El almidón es la reserva de energía alimentaria más importante del mundo vegetal.

• Dextrinas: Son fragmentos de la molécula de almidón, que resultan de la acción de las amilasas. Estas enzimas rompen primeramente el almidón en pequeños fragmentos, antes de separar por completo todas las moléculas de glucosa que lo forman. Por ello se puede decir que las dextrinas son almidones predigeridos.

En el pan o en los cereales dextrinados, por ejemplo, se somete al almidón de la harina a la acción química de las amilasas, enzimas que rompen parcialmente las largas cadenas de moléculas de glucosa De esta forma, la digestión resulta más fácil, pues el aparato digestivo ya se encuentra con una parte del trabajo hecho.

Celulosa: Es la sustancia orgánica más abundante de la naturaleza. Este polisacárido se encuentra presente en todas las plantas, formando la estructura o fibra de sus tejidos: semillas, raíces, tallo, hojas, frutos, etcétera.

En las semillas o granos de los cereales, se encuentra en la capa que los recubre, conocida como salvado. En las raíces, hojas y en la fruta, se encuentra entremezclada con la estructura vegetal.

A la celulosa se le llama también fibra vegetal. Forma las paredes de las células vegetales, de donde viene su nombre de celulosa.

Combinada con la lignina, forma la madera de los árboles. Su molécula está formada por una larga cadena de moléculas de glucosa, pero unidas de tal forma, que nuestro aparato digestivo es incapaz de romperla, y por lo tanto, no la puede aprovechar.

Glucógeno: Es similar químicamente al almidón, pero lo producen los animales a partir de la glucosa que se libera durante la digestión, y que es absorbida y pasa a la sangre.

El glucógeno se almacena en el hígado, y constituye una reserva de energía que el organismo puede utilizar rápidamente, volviéndolo a convertir en glucosa, ante cualquier demanda de energía (esfuerzo físico o intelectual, por ejemplo).
El glucógeno se encuentra en los productos de origen animal (hígado y músculos) en pequeñas cantidades, siendo prácticamente nulo su valor alimenticio.

Objetivos de una dieta sana en cuanto a hidratos de carbono

Según las recomendaciones de la OMS (Organización Mundial de la Salud)’, una alimentación sana debe tender a:

1. Aumentar el consumo de hidratos de carbono complejos (hasta el 70% de la energía ingerida).

2. Reducir el consumo de hidratos de carbono simples refinados (azúcar blanco) tanto como resulte posible, hasta llegar a prescindir completamente de ellos (limite inferior — 0%).

Esto significa que deben consumirse abundantemente los siguientes alimentos:

• Cereales (trigo, cebada, avena, centeno, maíz, arroz, mijo, etc.): Son la principal fuente de hidratos de carbono complejos (almidón). Según la OMS, el consumo abundante de cereales (especialmente la avena), tiene efectos beneficiosos sobre la diabetes y sobre otros trastornos metabólicos, y disminuye el riesgo de padecer cáncer.(ver: Los Cereales)

Los cereales debieran volver a ser, como lo han sido durante toda la historia, la base de la alimentación humana. La mayor parte de la energía que necesitamos deberla provenir de ellos.

No ocurre así en la típica dieta occidental a base de carne, productos lácteos, conservas y alimentos refinados industrialmente, en la que la proporción de energía procedente de los hidratos de carbono complejos no llega al 50%. Los expertos en nutrición aconsejan un uso abundante de cereales, tanto en el desayuno (en forma de pan, de copos o hervidos en papilla, etc.) como en la comida principal del mediodía.

Los cereales auténticamente integrales tienen además la ventaja de incluir de germen del grano (rico en vitaminas B y E, y en aminoácidos esenciales), y su cubierta o salvado (rica en fibra vegetal).

Tubérculos (patatas o papas, por ejemplo) y leguminosas, también ricas en hidratos de carbono complejos (almidón), además de ser una buena fuente de proteínas de gran valor biológico.
La dieta occidental típica, a base de carne, leche y sus derivados, es muy pobre en fibra vegetal (entre 3 y 10 gramos diarios). En cambio, la dieta a base de cereales, hortalizas y fruta, suple generosamente las necesidades diarias de fibra vegetal, según las recomendaciones de la OMS.

Debe reducirse al mínimo el consumo de dulces, pasteles, bombones y refrescos ricos en azúcar. Según la OMS, el consumo de azúcar refinado (blanco), proporciona energía sin nutrientes; es decir, aporta calorías, pero no los minerales y vitaminas necesarios para la metabolización de ese azúcar.

En consecuencia, provoca un empobrecimiento en dichas sustancias. En cambio, el azúcar sin refinar (moreno), la miel, y sobre todo, los azúcares naturales contenidos en la fruta, van acompañados de abundantes vitaminas y minerales, que permiten su buen aprovechamiento metabólico.

Digestión y utilización de los hidratos de carbono

Los hidratos de carbono complejos se transforman en glucosa en el intestino; pero a diferencia de lo que ocurre con los azúcares simples, la transformación en glucosa se produce lentamente (mientras que dura la digestión), y su paso a la sangre se produce escalonadamente.

Por el contrario, los azúcares simples (mono o disacáridos) pasan rápidamente a la sangre, con lo que aumenta bruscamente el nivel de glucosa. Esto provoca una respuesta intensa del páncreas, que debe segregar rápidamente insulina para poder metabolizar toda esa glucosa. Y como resultado de ello, se produce un nuevo descenso de glucosa en sangre (crisis de hipoglucemia).

Esas oscilaciones bruscas en el nivel de glucosa provocado por el consumo de dulces, pasteles, bombones, etcétera, obliga al páncreas, y al conjunto del organismo, a realizar un gran esfuerzo metabólico, predisponiendo para enfermedades como la diabetes o la arteriosclerosis.

No así los hidratos de carbono complejos (almidón de los cereales, tubérculos y legumbres), que al digerirse y pasar lentamente a la sangre, mantienen un nivel constante de glucosa durante varias horas, y permiten un mejor funcionamiento del páncreas.

Ello explica, además, el hecho de que después de desayunar un dulce, o la típica tostada con mermelada, se vuelva a tener hambre al poco tiempo; mientras que después de un desayuno a base cereales integrales, no se tiene hambre en toda la mañana.

Una dieta a base de cereales, frutas y verduras y hortalizas, cumple a plena satisfacción todas las necesidades de hidratos de carbono. Además, aporta especialmente los hidratos de carbono más saludables: el almidón y la fibra vegetal.

La celulosa o fibra vegetal es un tipo especial de hidrato de carbono que no se absorbe (no pasa del intestino a la sangre), y por lo tanto el organismo no la puede utilizar como fuente de energía. Toda la que se ingiere, es expulsada con las heces. Esto determinó que hasta hace unas décadas, no se le concediera ninguna importancia fisiológica. Pero ahora comprendemos la importancia de esa fibra vegetal aparentemente inútil: Actúa como una auténtica escoba en el intestino, absorbiendo toxinas y arrastrando sustancias nocivas como los ácidos biliares precursores del colesterol, entre otras, hasta formar las heces.

La celulosa o fibra vegetal se hincha con el agua, aumentando varias veces su volumen. De esta forma da consistencia a las heces, y facilita su tránsito por el colon hasta su expulsión por el recto. Cuando la dieta contiene poca celulosa por ser pobre en fruta, cereales integrales y hortalizas. las heces son duras, resecas y concentradas, con lo que obligan al intestino a realizar grandes esfuerzos para eliminadas. Esto causa o agrava numerosos trastornos, como los divertículos intestinales, las hemorroides y hasta el cáncer de colon.

La celulosa (fibra vegetal), es exclusiva del reino vegetal. Ningún alimento animal (carne, pescado, leche o huevos) contiene celulosa. Así pues, aunque no proporciona energía, ni pasa a la sangre, es un componente imprescindible en una dieta sana y equilibrada, ya que evita el estreñimiento y baja el colesterol.

La Glucosa: El combustible universal

La glucosa, de fórmula química C6H1206, es el principal combustible de nuestro organismo. Puede decirse que desde el punto de vista energético, los seres humanos somos, biológicamente, un motor que funciona a base de glucosa.

Todos los hidratos de carbono de los alimentos se transforman en el tubo digestivo en glucosa, que pasa a la sangre y es llevada a todas las células de nuestro organismo. Pero su depósito principal está en el hígado, que actúa como almacén regulador. La glucosa se almacena en esta glándula en forma de glucógeno, polisacárido de reserva, que se convierte de nuevo en glucosa cuando las necesidades del cuerpo lo requieren. De esta forma, el hígado se encarga de mantener un nivel de glucosa en la sangre bastante constante: aproximadamente un gramo por cada litro de sangre (100 mg/loo mi).

En las células de los músculos también se almacena una pequeña cantidad de glucosa en forma de glucógeno, que se transforma de nuevo en glucosa cuando se realiza cualquier actividad física.

Cuando el nivel de glucosa en la sangre baja, y las reservas del hígado o de los músculos (que duran solo para unas horas), no consiguen subirlo, por estar ya agotadas, se produce una situación de hipoglucemia. Si esto ocurre de forma brusca, sin dar tiempo a que el organismo busque otras reservas de energía, se producen llamativos síntomas, como sensación de mareo, hambre intensa, pérdida de fuerza e incluso pérdida de conocimiento con caída al suelo, fenómeno que se conoce como lipotimia o desmayo.

La glucosa es transportada con la sangre a todas las células del cuerpo. Gracias a la energía que proporciona cuando se quema, combinándose con el oxigeno en el interior de las células, la glucosa hace que todo el organismo funcione: que los músculos se contraigan, que se produzca calor en el cuerpo, y que el cerebro desarrolle sus funciones, especialmente el pensamiento. De hecho, este maravilloso órgano necesita, para funcionar correctamente, que se le suministren dos sustancias de forma interrumpida: la glucosa y el oxígeno. Cada día nuestro cerebro consume unos 140 gramos de glucosa.

Para que la glucosa pueda penetrar en el interior de las células y ser allí quemada, produciendo energía, necesita de la acción de la hormona insulina. Cuando no hay suficiente insulina en la sangre, porque el páncreas no la produce, la glucosa se acumula en la sangre, aumentando su nivel en ella, en lugar de entrar en las células para ser utilizada.

Una vez en las células, la glucosa necesita vitaminas del grupo B para poderse metabolizar, es decir, para poderse quemar y producir energía. Por ello, al consumir azúcar refinado (sacarosa prácticamente pura), el organismo tiene que utilizar sus propias reservas de vitaminas 3 para poder metabolizarlo, con el riesgo de agotarlas. El azúcar refinado es un alimento muy pobre: solo aporta calorías, pero no las sustancias necesarias para poderlas aprovechar.

PARA SABER MAS…
Hidratos de carbono: fuente de energía

La necesidad más constante y básica del cuerpo (aparte del agua) es la energía. Se requiere energía para respirar, para moverse, para funcionar, para ponerse en marcha, para reparar y para crecer. Como las máquinas, precisamos una fuente externa de energía, pero nuestro combustible debe provenir de lo que comemos y bebemos.

Esa energía se mide en kilocalorías (popularmente denominadas calorías). Cuando gastamos energía, quemamos calorías, y cuando comemos, las ingerimos. La cantidad de energía o calorías que nuestro cuerpo necesita en un día depende de la estatura, la edad, la proporción de musculatura con respecto a las grasas, el nivel de actividad y muchos otros factores.

Las necesidades medias aproximadas (NMA) para los niños, los adolescentes y los ancianos aparecen en el capítulo tres. La energía también se mide, en ocasiones, en kilojulios (1 kilocaloría = 4,18 kilojulios).

NECESIDADES DIARIAS MEDIAS DE ENERGÍA E HIDRATOS DE UN ADULTO

   Calorías/DíaH.de C./Día Máximo Azúcar/Día (g.)
Mujeres19-50194025852
 51-59190025350
Hombres19-59255034068

Para mantener un peso adecuado y estable, el aporte de energía (alimento) y el gasto energético deben estar equilibrados. La falta de aporte y el exceso de gasto pueden provocar pérdida de peso; el exceso de comida y la ausencia de gasto dan lugar a un aumento de peso (debido al exceso de calorías, que se convierten en grasa corporal) y a una posible obesidad.

Todos los alimentos y las bebidas que contienen calorías aportan energía en forma de hidratos de carbono, grasas, proteínas o alcohol. Apenas existen alimentos que contengan sólo uno de esos elementos (las principales excepciones son los aceites, que únicamente contienen grasa, y el azúcar, que se compone exclusivamente de hidratos de carbono). La mayoría de los alimentos constituyen una mezcla de mas de un elemento (además de las combinaciones de vitaminas y minerales).

Por ejemplo, el pan es rico en hidratos de carbono, pero también lleva proteínas y grasas; la leche entera contiene hidratos de carbono, grasas y proteínas en cantidades razonables; la carne es una mezcla de proteínas y grasas, etc.

Aunque todos los tipos de calorías (ya provengan de hidratos de carbono, grasas, proteínas o alcohol) aportan energía, la mayor parte de la energía aportada debe proceder de los hidratos de carbono. El cuadro siguiente muestra la proporción en que cada uno de los nutrientes que aportan energía debería estar presente en una dieta sana e incluye un 5 % de alcohol (fuente de energía en la mayoría de dietas).

 

Grasas 33-35%
Proteínas Hasta un 15%
Hidratos de Carbono 47-50%
Alcohol 0-5%

Algunos países recomiendan niveles de hidratos de carbono más elevados que otros (por ejemplo, Estados Unidos, 55 %; Suecia, 60 %), y la Organización Mundial de la Salud (OMS) afirma que entre el 55 y el 75 % de nuestra ingesta total de calorías debería provenir de los hidratos de carbono. Sin duda, niveles de hasta el 60 % de las calorías diarias totales resultan buenos para la salud y son asequibles, siempre y cuando las grasas y las proteínas se reduzcan.

Existen dos tipos principales de hidratos de carbono: las féculas y los azúcares. En la actualidad, alrededor del 60 % de los hidratos de carbono que consumimos son féculas, y aproximadamente el 40 % provienen de azúcares. Los alimentos con fécula proceden de las plantas: cereales para el desayuno, pan, patatas, legumbres, pasta y arroz. Las verduras también contienen féculas, aunque en cantidades variables. Las frutas, en cambio, carecen de ese elemento (a excepción de los plátanos). Los hidratos de carbono de estos alimentos se denominan polisacáridos y se conocen como hidratos de carbono complejos.

Los azúcares intrínsecos, como los que se encuentran en las frutas (los hidratos de carbono de casi todas las frutas son azúcares) y las verduras (por lo general, una mezcla de azúcares y féculas), forman parte de la estructura celular del alimento. Los azúcares extrínsecos (en ocasiones, llamados libres), como los del azúcar de mesa, la miel, los zumos de frutas, los pasteles, las galletas, la bollería, etc., no forman parte de la estructura celular del alimento, sino que son refinados, privados de la fibra, o bien se añaden durante el proceso de fabricación. La leche contiene un azúcar extrínseco, la lactosa, que no suele agruparse con los otros azúcares extrínsecos en términos de nutrición.

Los hidratos de carbono complejos y los azúcares intrínsecos deben formar el grueso de una dieta sana. La OMS aconseja que al menos el 50 % de las calorías de la dieta provengan de hidratos de carbono complejos. Se trata de los alimentos vegetales que no sólo aportan al cuerpo una forma de energía fácilmente convertible, sino también toda una gama de otros nutrientes vitales. Además, apenas presentan inconvenientes para a salud y, por tanto, pueden llenar el hueco energético que se produce cuando reducimos el consumo de grasas

Los hidratos de carbono también evitan que las proteínas se conviertan en energía, lo que puede ser importante si las necesidades proteicas son elevadas o si el consumo es bajo.

Cuanto más puros sean los hidratos de carbono que se consuman, mejor para la salud. Las dietas pobres en hidratos de carbono y ricas en grasas están relacionadas con el aumento del riesgo de diversas enfermedades, incluidas las cardíacas, algunos tipos de cáncer (en especial, el de colon), e! estreñimiento y la obesidad.

Los alimentos sin refinar o apenas refinados, como el arroz y el pan integrales, ‘as frutas y las verduras frescas, las legumbres, los frutos secos y las semillas, contienen todos o casi todos los nutrientes originales (fibra, vitaminas, minerales y otros de reciente descubrimiento, unos interesantes compuestos denominados fitoquímicos. Los hidratos de carbono refinados, como el arroz, la pasta y la harina, contienen esos elementos en menor proporción, aunque su consumo resulta recomendable.

Muchos productos elaborados con féculas, como la pastelería industrial y las galletas, han perdido gran parte de las fibras, las vitaminas, los minerales y los compuestos fitoquímicos naturales. Además, pueden contener elevados niveles de los tipos menos sanos de grasas y azúcares extrínsecos y, por tanto, es recomendable reducir su consumo de forma drástica.

Un informe reciente de la OMS apunta que los azúcares extrínsecos pueden consumirse con moderación como parte de una dieta sana, pero siempre de forma moderada, ya que el consumo elevado de azúcares extrínsecos no lácteos constituye una de las principales causas de caries y pérdida de piezas dentales.

Otro dato importante es que una dieta rica en alimentos grasos y azucarados, como los aperitivos, los dulces y los pasteles, puede carecer de nutrientes esenciales y aporta elevadas cantidades de calorías. Muchos expertos coinciden en que el creciente consumo de esos tipos de alimentos está relacionado con los niveles (también en aumento) de sobrepeso y obesidad.

Resulta muy fácil consumir mucho más azúcar extrínseco del que se imagina. Para alcanzar el límite del 10 % total de energía (52 g de azúcar), basta con que una mujer tome sólo una pequeña rebanada de bizcocho (24 g de azúcar) y una lata de refresco de cola (36 g de azúcar), o por poner otro ejemplo, dos cafés endulzados con dos cucharadas de azúcar cada uno (20 g de azúcar), más dos galletas digestivas cubiertas de chocolate (20 g de azúcar) y un vaso de sidra dulce (12 g de azúcar).

Las Fibras Opticas Fundamentos Tipos, Usos y Aplicaciones

Fundamentos y Uso de las Fibras Ópticas

Las investigaciones en el campo de la electrónica y las comunicaciones encuentran en la tecnología de la fibra óptica un interesante campo de experimentación. La fibra óptica es un filamento cilíndrico transparente, fabricado en vidrio, que posee la propiedad de propagar las ondas electromagnéticas colocadas en el espectro visible

Fundamento de las tecnologías ópticas

fibra optica

La comunicación entre dispositivos electrónicos se verifica a través de ondas electromagnéticas.

Cuanto mayor es la frecuencia de la onda mayor cantidad de información puede ser transmitida.

Dado que la luz es  también una onda electromagnética, cuya frecuencia es muy elevada, el flujo de información que transporta es, consecuentemente, muy superior al que se obtendría utilizando otros tipos de ondas.

Los cables de fibra óptica se emplean para la iluminación de espacios de difícil acceso (por ejemplo, en las operaciones de microcirugía), para la transmisión de imágenes (es el caso de la televisión por cable) e informaciones y, de manera especial, en el ámbito de las telecomunicaciones por láser.

Componentes de la fibra óptica

Las fibras ópticas están formadas por dos elementos: un núcleo cilíndrico y una funda envolvente, denominada vaina. Ambos componentes se fabrican en vidrio aunque siguiendo procesos distintos, puesto que es necesario que el índice de refracción difiera en uno y otro.

De este modo, la velocidad a la que viajan las ondas es distinta en el núcleo y en la vaina. La mezcla del vidrio con materiales impuros determina las variaciones en el índice de refracción.

El diámetro de una fibra óptica oscila entre los 10 y los 100 micrómetros un micrómetro equivale a la millonésima parte de un metro—; la unión de fibras ópticas determina la formación de haces que pueden ser rígidos o flexibles, y transmitir -tanto la luz como imágenes o informaciones, dependiendo de las aplicaciones.

El índice de refracción del material con el que está fabricada caracteriza una fibra óptica; asimismo, ha de tenerse en cuenta la caída de la señal que las atraviesa, que se encuentra estrechamente relacionada con su longitud y con la frecuencia de la radiación empleada.

Tipos de fibra óptica

Fibras de Índice abrupto

En las fibras de índice abrupto la velocidad a la que se propagan las ondas electromagnéticas es inferior en el núcleo con respecto a la envoltura. Cuando los rayos penetran en la fibra con un ángulo pequeño, rebotan al chocar con las paredes, en función de la diferencia del índice de refracción entre ambos componentes.

Por el contrario, si el ángulo de penetración de la radiación electromagnética es elevado, los rayos se pierden. Es también el ángulo de entrada del rayo de luz lo que determina la velocidad de transmisión.

Así, si su dirección es paralela al eje de la fibra, «viaja» más rápidamente; si, por el contrario, penetra desviado, describe una trayectoria más larga, puesto que avanzará rebotando en los puntos de unión del núcleo y la vaina.

En este caso, la señal luminosa se pierde progresivamente en función de la distancia. Para solucionar el problema es necesario incorporar al sistema repetidores de la señal, a determinadas distancias.

Fibras de Indice gradual

A diferencia de lo que ocurre con las fibras de índice abrupto, en este caso el índice de refracción del núcleo no es constante, sino variable: es mayor en el centro y menor en el borde —lo que determina un incremento en la velocidad de la luz—.

De esta manera se igualan las velocidades de los rayos, sin que el factor «ángulo de entrada» sea determinante.

En síntesis, en las fibras de índice abrupto la luz viaja por el núcleo, pero el desfase producido entre las ondas provoca pérdidas al cabo de pocos kilómetros, puesto que no todos los rayos recorren la misma distancia: unos pueden viajar rectos, mientras otros, al rebotar en las paredes, recorren un camino en zigzag y, consecuentemente, mayor distancia.

Esta cuestión se soluciona en las fibras de índice gradual, haciendo que la velocidad aumente en las partes laterales, para compensar así la mayor longitud del camino a recorrer. En cada punto de la fibra la velocidad es inversamente proporcional al índice de refracción.

Aplicaciones

Fibras conductoras de luz

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Fibras conductoras de imágenes

Para la transmisión de imágenes las fibras del haz han de aparecer ordenadas, no simplemente yuxtapuestas, como sucede en el caso de la conducción de la luz. Efectivamente, si la posición relativa de las fibras es idéntica en los dos extremos del haz, resulta posible que la imagen formada en el primer extremo se propague hacia el final del sistema, con un grado de nitidez que viene determinado por el diámetro de cada fibra individual. La longitud habitual de estos conjuntos ordenados de haces, también flexibles, oscila entre 50 cm y 1 m de longitud.

Fibras conductoras de información

A mediados de los años sesenta del siglo XX comenzó a pensarse en la posibilidad de transmitir a gran distancia la luz modulada por señales, utilizando para ello fibras ópticas. No obstante, los primeros resultados en este nuevo ámbito de experimentación se produjeron ya en la década siguiente, gracias a la obtención de fibras con un elevado grado de transparencia, que determinaran pérdidas suficientemente pequeñas. En un principio, el sistema se utilizó para transmisiones entre puntos cercanos —dentro, por ejemplo, de una aeronave—.

Sucesivos avances en este campo dejaron patente, á comienzos de los ochenta, la posibilidad cercana de sustituir el cableado coaxial por cables de fibra óptica. La reducción de las dimensiones y el peso del sistema, además de una mayor insensibilidad a las perturbaciones derivadas de eventuales campos magnéticos, se revelaron pronto como las principales ventajas de esta sustitución.

Asimismo, la introducción de cables de fibra óptica permitía un considerable ahorro de cobre y aseguraba, sin necesidad de recurrir a amplificaciones intermedias, un alcance muy superior al obtenido con los pares coaxiales.

Conexiones telefónicas

La introducción de cables de fibra óptica en las conexiones telefónicas, donde la señal ya no está constituida por una corriente eléctrica, sino por una onda luminosa, ofrece la posibilidad de transmitir impulsos en cantidad y calidad decididamente mayor, además de a una velocidad más elevada. El proceso requiere la instalación de una amplia red de fibras ópticas. Este proyecto, hoy en vías de realización, lleva el nombre de cableado y constituye un paso importante que cambiará sensiblemente los hábitos y costumbres del hombre, ahora en el centro de la revolución telemática.

La televisión por cable y las autopistas de información: En ambos campos, la tecnología de la fibra óptica ofrece interesantes posibilidades. La televisión por cable implica un cambio en la forma de transmisión de la señal, que, en lugar de propagarse a distancia, circula por cables. En un principio, se emplearon pequeños cables coaxiales normales, análogos a los utilizados para la telefonía; hoy, en cambio, se utilizan cables de fibra óptica que permiten una transmisión más rápida.

Asimismo, las autopistas de la información son posibles gracias a la sustitución del tradicional hilo metálico por los cables de fibra óptica. En este tipo de conexión, las señales circulan en forma digital, formadas esencialmente por secuencias de ceros y unos que sustituyen a las anteriores señales de tipo analógico.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)