El Primer Transistor

Historia de la Computacion Generaciones y sus Caracteristicas

Historia de la Computación
Principales Características de las Generacionesas

TEMAS TRATADOS:

1- Introducción y Antecedentes Históricos

2- Primeras Máquinas Mecánicas de Calcular

3- Evolución del Computador Electrónico

4- Generación de Computadoras

  a) Primera Generación

  b) Segunda Generación

  c) Tercera Generación

  d) El Chip o Microprocesador – Cuarta Generación

5- Medir la Memoria – Almacenamiento de Datos – Tareas de una Computadora

6- Fechas Claves de la Historia de la Computación

7- Primeras Palabras de la Computación

HISTORIA DE LA COMPUTACIÓN: Los primeros seres humanos usaban el método más obvio para contar, sus dedos. Pero estos esfuerzos de cálculo estaban limitados a cantidades bastante pequeñas; además los dedos no eran medios adecuados de registro de datos, particularmente cuando fue necesario un lenguaje de signos.

Dos medios precoces de registro de datos y cálculo llevaban consigo el uso de diagramas y piedras. Los dibujos con carbón de leña de los pueblos primitivos muestran el uso de marcas para registrar cantidades de ganado. Las marcas podían ser añadidas o borradas según estos inventarios eran consumidos o repuestos.

Una aproximación al problema igualmente simple seguía una relación uno-a-uno: una piedra equivalía a una unidad de bienes. Los pastores utilizaban este principio para controlar sus rebaños, asociando una piedra con una oveja. En la terminología de hoy, podríamos decir que los pastores guardaban un inventario de sus ovejas. Aunque los términos puedan cambiar a través del tiempo, el principio sigue siendo el mismo. Los inventarios se realizan con un planteamiento uno-a-uno.

La dificultad de usar piedras era su falta de portabilidad. Un gran rebaño significaba literalmente cientos de piedras y por tanto penalizaba los recursos físicos del pastor. Así, los pastores pasaron a otros métodos de registrar los tamaños de los rebaños. Nudos en cuerdas hechas de cuero de animales proporcionaron una solución, significando cada nudo de 5 a 10 ovejas.

Uno de los primeros dispositivos para facilitar el cálculo fue el abaco. Este dispositivo utilizaba un esquema de numeración basado en los cinco dedos de la mano. Pudo haber sido fácilmente una extensión del uso combinado de las tiras de cuero y las semillas.

Antes de comenzar a eneumerar las distintas maquina creadas por el hombre, vamos a decir que hay una que se ha destacado muy por encima de las demás: el llamado ordenador electrónico o computador.Desde su origen se lo ha comparado como una especie de cerebro humano y hasta ha recibido de «cerebro electrónico». Su función se ha debatido en todos los rincones intelectuales y se ha llegado a polemizar sis estas maquinas piensan realmente o no. Sin  dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina de calcular, por muy sofisticada que ésta sea, solo podemos afirmar que en lo único que se ve superado el cerebro por la máquina es en la velocidad de cálculo, probablemente de ahí venga su mitificaclón.

Antecedentes históricos

Si intentamos encontrar el origen de las máquinas de calcular, y no somos demasiado rigurosos en cuanto a las características exigidas para ser consideradas como tales, podemos retroceder varios miles de años, sin poder precisar cuántos, hasta llegar al más elemental de los utensilios destinados a facilitar el cálculo: el abaco. Aun a pesar de su antigüedad, sigue utilizándose actualmente en algunos países asiáticos, donde tuvo su origen.

El abaco está constituido por una tablilla dividida en varias columnas, la situada más a la derecha corresponde a las unidades, la anterior a las decenas, y así sucesivamente.

abaco

Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

En cada columna podemos distinguir cinco cuentas elementales y dos cuentas que representan cinco unidades colocadas en la parte superior. Una vez representado un número mediante todos sus dígitos en las columnas apropiadas, para proceder a sumarle otro bastará con ir acumulando dígito a dígito, de forma que si al realizar la adición en alguna de las columnas se llega a tener diez cuentas, éstas se eliminarán y se sumará una cuenta en la columna situada a su izquierda. Con un poco de paciencia y algo de práctica se pueden realizar, con este simple utensilio, adiciones y sustracciones de números grandes a velocidades bastante elevadas.

EL ABACO: Nadie sabe cuándo se introdujo el uso del abaco, pero probablemente ya era conocido en Egipto al menos en el 500 a. J.C. Consiste, en lo esencial, en hileras de cuentas, a veces enhebradas. En su forma más simple, cada hilo tiene diez cuentas: la primera hilera representa las unidades, la segunda las decenas, la tercera las centenas y así sucesivamente. Las cuentas pueden manejarse igual que movemos los dedos de una mano para sumar y restar elementalmente. La ventaja radica en que se dispone de nueve o diez «manos» —tantas como hileras de cuentas — , y los movimientos efectuados son más sencillos y rápidos que los requeridos por la cuenta con los dedos. Una persona hábil puede utilizar el abaco a gran velocidad para multiplicar, dividir y realizar muchas operaciones aritméticas complicadas. Se trata del primer dispositivo realmente importante concebido por los seres humanos para contar.

A lo largo de la historia se han inventado otras muchas máquinas que no vamos a considerar como prototipos de los actuales ordenadores por su sencillez, hasta que en el siglo XVII el filósofo y científico francés Blaise Pascal, cuando tan sólo contaba 18 años de edad, inventó su máquina calculadora.

pacalina de pascal

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

La máquina en cuestión estaba construida a partir de un determinado número de medas dentadas (hasta la aparición de los relojes digitales, este tipo de ruedas ha sido el habitual en la industria relojera) de forma que al rodar 10 dientes de la primera rueda, avanzaba un diente de la segunda; al rotar 10 dientes de la segunda, avanzaba un diente de la tercera, y así sucesivamente. Evidentemente, dicha máquina sólo servía para sumar y restar; además, su utilización era tan farragosa que no suponía ninguna ventaja práctica respecto al cálculo manual, más bien todo lo contrario.

La máquina diseñada por Pascal sirvió de base para la que un siglo más tarde construyó el matemático alemán Leib-niz. El objetivo de Leibniz era mucho más ambicioso, ya que para él la máquina no era más que un puente entre el enunciado de un problema y su resolución. De alguna forma daba a su máquina el sentido que en la actualidad damos a los algoritmos.

Blais Pascal

La máquina original de Pascal sólo servía para la adición y la sustracción, la perfeccionada por Leibniz también permitía multiplicar y dividir mediante sumas y restas sucesivas. Para ello utilizaba cilindros con dientes de diferentes longitudes, ajustando por encima de ellos otros engranajes más pequeños, cada uno de los cuales representaba una cifra del multiplicando y estaba situado de forma que cada giro completo del conjunto de engranajes largos registraba una vez el multiplicando, y el multiplicador se expresaba mediante el número de giros de los engranajes largos. Cuando en el siglo XIX se comercializaron las primeras máquinas de calcular, su sistema de funcionamiento estaba basado precisamente en este mecanismo.

historia de la computacion y computadoras

Calculadora diseñada y construida por Mattieu Hahn en 1779. Se estima que es la primera máquina de calcular capaz de realizar las cuatro operaciones aritméticas.

historia de la computacion y computadoras
Máquina de multiplicar diseñada para realizar la operación directamente, sin recurrir a la repetición de adiciones. Fue construida por León Bollée en 1887.

historia de la computacion y computadoras

Máquina tabuladora eléctrica de Hollerith patentada en 1889. Dos veces más veloz que las restantes máquinas contemporáneas, la tabuladora eléctrica es la madre de las modernas máquinas de tratamiento de datos. Se utilizó en 1890 para elaborar el censo de los Estados Unidos de América.

Las máquinas de Babbage
Ya en el siglo XIX, el matemático inglés Babbage dio un gran impulso al diseño de máquinas matemáticas, como él mismo las denominaba. Dedicó toda su vida a dichas máquinas y encontró problemas insalvables a la hora de llevar a la práctica sus proyectos, ya que la complejidad mecánica que conllevaban era excesiva para aquella época. Su obsesión por sus máquinas fue tan grande que se convirtió en una persona huraña y amargada, él mismo llegó a afirmar que no había conocido ni un solo día feliz en su vida.

Entre sus innumerables trabajos podemos citar la elaboración de una tabla de logaritmos que obtuvo gran éxito, así como unas tablas de mortandad con las que pretendió popularizar los seguros de vida. En cualquier caso, su principal objetivo era construir máquinas que calculasen e imprimiesen tablas matemáticas. Ideó un pequeño modelo que consistía en 96 ruedas y 24 ejes, al que denominó «máquina diferencial».

maquina de babage

Pascal y Leibniz construyeron máquinas calculadoras (véase 1642 y 1693), pero sólo permitían efectuar las tareas más sencillas.
Hacia 1822, el matemático inglés Charles Babbage (1792-1871) empezó a pensar en algo mucho más ambicioso. Deseaba una máquina que funcionara con tarjetas perforadas, como un telar de Jacquard (véase 1801), capaz de almacenar respuestas parciales a fin de reservarlas para operaciones adicionales que se efectuarían posteriormente, y capaz asimismo de imprimir el resultado. Todo cuanto imaginó era factible, pero no por medios meramente mecánicos, aplicando las técnicas de la época. Babbage pasó casi el resto de su vida tratando de construir la máquina, mientras sus planes eran cada vez más grandiosos. Babbage había concebido el moderno ordenador, pero carecía de los necesarios conmutadores eléctricos. Se precisaría un siglo para desarrollarlos.

Babbage estimó necesario tres años para construir dicha máquina para el gobierno británico, pero a medida que avanzaba en su construcción, ideaba nuevos sistemas que hacían inútil todo el trabajo realizado anteriormente. Después de cinco años tuvo que abandonar el trabajo por problemas económicos.

Pronto olvidó el viejo proyecto para niciar uno nuevo al que denominó «máquina analítica» y que -según él mismo dijo- era «una máquina que se muerde su propia cola», ya que los resultados que producía podían ser utilizados como catos de entrada para un nuevo cálculo.

La máquina analítica estaba diseñada oara ser capaz de realizar cualquier operación matemática y se puede considerar como la primera máquina programare, aunque el programa era externo a la máquina. Según el diseño, debía disponer de una memoria capaz de almacenar  1.000 números de 50 cifras, podía utilizar funciones auxiliares que constituían su propia biblioteca, podía comparar númeeros y actuar de acuerdo con el resultado de la comparación; en definitiva, su estructura era muy parecida a la de los cimeros ordenadores electrónicos.

Precisamente, su principal limitación era que para su funcionamiento no podía contar con la electrónica, teniendo que conformarse con la mecánica. Toda la información se almacenaba en grandes tarjetas perforadas que contendrían tanto los datos como los programas y el mecanismo de funcionamiento se basaba en alambres, que según pudieran atravesar o no los orificios de las tarjetas, ponían en marcha los engranajes oportunos.

Los fracasos, debidos a la gran complejidad del sistema, fueron continuos y el proyecto quedó abandonado. No osbtante, Babbage estaría hoy orgulloso si pudiera comprobar cómo su lógica ha sido adoptada en los modernos ordenadores electrónicos.

Calculadora electromecánica
El censo norteamericano ganaba en complejidad. Cada vez había más habitantes, y crecía el número de preguntas que se formulaban a cada persona. La información recogida era tan voluminosa, que llevaba literalmente años elaborarla.

El inventor norteamericano Hermán Hollerith (1860-1929), que trabajaba en el censo, pensó que podía mejorarse la manera de manejar los datos, y a partir de 1880 se lanzó a la tarea de encontrarla. Empleó tarjetas perforadas similares a las de Jacquard y Babbage. Cada tarjeta podía ser perforada para representar los datos recogidos en el censo: distribuidas en los lugares apropiados, las perforaciones representaban sexo, edad, ocupación, etcétera.

Hermann Hollerit

Hermán Hollerith (1860-1929)

Con objeto de sumar y analizar toda esta información, las tarjetas se colocaban en un montón, y un dispositivo metálico presionaba sobre ellas. El dispositivo tenía muchas agujas, que eran detenidas por la cartulina, pero cuando encontraban una perforación, pasaban a través de ella y alcanzaban un recipiente de mercurio situado detrás.

Entonces discurría a través de esas agujas una corriente eléctrica que transmitía una señal a un cuadro. Como las tarjetas perforadas pasaban rápidamente por esa máquina, sólo era necesario tomar nota de los números que iban apareciendo en el cuadro.

La diferencia fundamental entre los ingenios de Hollerith y de Babbage era que el primero hacía uso de la electricidad. O sea que desarrolló una calculadora electromecánica, y no meramente mecánica.

Con el tiempo, Hollerith fundó una compañía dedicada a construir toda clase de máquinas capaces de manejar y analizar información. Esa empresa creció hasta convertirse en la International Business Machines Corporation, conocida generalmente como IBM.

tarjeta perforada

Una Antigua Tarjeta Perforada

Evolución hacia el ordenador electrónico

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquin; ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944 John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945 Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

LAS MAQUINAS ELECTROMECÁNICAS DE CONTABILIDAD

Hacia el ordenador actual
El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valló de los grandes adelantos de la electrónica en esos momentos.

En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

 computadora electrónica

Historia de la Computación:
Generaciones de los Ordenadores:

Desde que en la primera parte de la década de los cincuenta se empezaron a utilizar los ordenadores con fines comerciales, éstos han evolucionado hasta el punto de que se pueden distinguir tres generaciones distintas y claramente diferenciadas.

El método que nos permite decidir en qué momento termina una generación y empieza otra se basa fundamentalmente en dos características: la tecnología empleada para la construcción de los ordenadores yía arquitectura de los sistemas. Describiremos a continuación las diferencias existentes entre las tres generaciones, tanto desde el punto de vista de las características físicas de los equipos, como desde la perspéctiva de las dinstintas técnicas de organización y explotación.

HISTORIA: PRIMERA GENERACIÓN DE COMPUTADORAS:

Los ordenadores pertenecientes a la primera generación estaban basados fundamentalmente en válvulas electrónicas, por ese motivo su tamaño era muy grande y su mantenimiento complicado; se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Otra característica de los ordenadores de esta generación era la escasa fiabilidad; por ejemplo, el tiempo medio entre dos averías de una unidad central era inferior a la hora, esto implicaba que para garantizar el buen funcionamiento de un equipo se necesitaba la total dedicación de un grupo de personas encargadas del mantenimiento. Los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de programas largos implicaba esperas incluso de varios días.

La forma de ejecutar los trabajos en los ordenadores de esta generación era estrictamente secuencial: el programa, que previamente se había perforado en tarjetas, se cargaba en la memoria del ordenador y, a continuación, se ejecutaba, procesando las instrucciones de entrada de datos desde cualquiera de los dispositivos de que se disponía, las instrucciones de cálculo y las de salida de información. En cada instante el ordenador no se dedicaba más que a una única tarea, por lo que si se estaba realizando un proceso de lectura de fichas perforadas, el resto de los componentes del sistema permanecían ociosos hasta finalizar la lectura.

UN PASEO HISTÓRICO: Los años 30 vieron la aparición de la investigación que iba a conducir a las primeras computadoras. En 1934, bajo la supervisión del Dr. John V. Atanasoff en el Iowa State College, se modificó una máquina de proceso de tarjetas para realizar cálculos aritméticos bajo controles activados mecánicamente.

Unos cinco años después, el Dr. Atanasoff y Clifford Berry construyeron la computadora Atanasoff-Berry o ABC, que estaba formada por válvulas de vacío y poseía una memoria limitada en la que los datos que iban a ser procesados podían almacenarse.

Investigaciones paralelas sobre sistemas electromecánicos se producían mientras tanto en otros lugares. En Harvard en 1937, el Dr. Howard Aiken y sus ayudantes, en colaboración con IBM, concibieron la idea del Mark I, que fue reconocida posteriormente como la primera computadora. El Mark I pesaba unas 10.000 libras, medía unos 50 pies de largo y contenía unas 760.000 partes móviles. Una estructura similar a un programa que consistía en series de instrucciones se empleó para dirigir al Mark I en sus cálculos.

Mientras que las actividades mencionadas anteriormente recibían la aclamación pública, técnicos investigadores británicos trabajaban en secreto en una computadora llamada Colussus. Sólo recientemente ha salide a la luz lo relativo a este proyecto y su impacto en el esfuerzo bélico británico.

El Colussus se usó para romper los códigos de comunicación nazis y esclarecer las estrategias alemanas. La computadora podía leer datos codificados a una velocidad de 5.000 caracteres por segundo, analizar sus contenidos textuales, y dar salida al material codificado transformado por medio de una máquina de escribir eléctrica.

La computadora Colussus demostró que una gran cantidad de intrincados circuitos electrónicos podía manejar adecuadamente cálculos a gran velocidad.

Los militares teóricos se dieron cuenta rápidamente del potencial que las computadoras podían tener en la guerra moderna y urgieron a que se dieran de programa almacenado, una idea que revolucionó la informática. La mayoría de las computadoras anteriores al EDSAC eran dirigidas por paneles de control cableados para realizar un conjunto específico de tareas.

Un cambio en el tipo de tareas significaba un gran esfuerzo en cablear la computadora para una nueva tarea. El Dr. von Neuman teorizó que una computadora no debería estar controlada exteriormente por un conjunto de cables, sino directamente en su proceso por una serie de instrucciones, contenidas directamente en su memoria.

Un programa almacenado dentro de la computadora dirigiría todo el procesamiento, iniciando la entrada de datos a la computadora, dirigiendo la impresión de los resultados del procesamiento y controlando la actuación de las operaciones aritméticas.

El programa almacenado en la computadora podría controlar un conjunto completo de actividades y, por tanto, dirigir el procesamiento de la computadora de una tarea específica.

El siguiente programa dentro de la memoria de la computadora podría llevar a cabo una tarea diferente sin necesidad de volver a cablear el computador. Esencialmente, la computadora poseería la capacidad de realizar una variedad de operaciones de procesamiento, cualquiera de las cuales podría ser iniciada por el programa almacenado dentro de su memoria. EDSAC proporcionó el vehículo para probar la realidad del concepto de programa almacenado de Von Neumann.

Una de las computadoras accesibles comercialmente fue el UNIVAC I, introducido en 1951. La computadora fue diseñada bajo la supervisión de Mauchly y Eckert para la oficina del censo de los EE. UU. El UNIVAC I introdujo los prototipos de lenguaje de programación y técnicas que fueron desarrolladas para su uso en futuras computadoras.

Fue en esta época cuando IBM entró en la industria informática presentando su primera computadora, el IBM 701, en 1953. Al cabo de un año, IBM introdujo su sistema IBM 650, que demostró ser una de las computadoras más populares de esa época. Podía realizar operaciones con tarjetas de computadora, dando posteriores modelos de esta máquina soporte a dispositivos más sofisticados. Posteriormente, IBM presentó sus computadoras 702 y 704, diseñadas para las áreas de los negocios y la ciencia respectivamente.

Las computadoras discutidas en esta sección, desde el MARK I al IBM 704, son representativos de la primera generación de computadoras. Eran máquinas grandes, extremadamente voluminosas, que eran difíciles de programar y limitadas en su rango de actividades. El componente más usado en la construcción de las computadoras de la primera generación fue el tubo de vacío, que generaba gran cantidad de calor y consumía grandes cantidades de energía eléctrica.

eniac computador

Uno de los primeros usuarios de la computadora ENIAC fueron las fuerzas armadas de EE. UU. Esta computadora, el primer dispositivo completamente eléctrico construido, fue producto del trabajo de Mauchly y Eckert. (UPI.)

HISTORIA: LA SEGUNDA GENERACIÓN DE COMPUTADORAS:

Las diferencias entre la primera y la segunda generación de computadoras fueron su construcción y las capacidades operativas que proporcionaban.

Las computadoras de la segunda generación estaban construidas con transistores, pequeños componentes eléctricos desarrollados en los laboratorios Bell en 1947 y perfeccionados a lo largo de 12 años de trabajo. El transistor era más pequeño y fiable en el tubo de vacío y ofrecía mayor velocidad interna de proceso, medida en microsegundos (millonésimas de segundo).

Una de las tecnologías perfeccionadas con la segunda generación de computadoras fue el almacenamiento en cinta magnética, originalmente introducido con la primera generación de mediados de los 50. Los datos se grababan en cintas magnéticas de la misma manera en que se graba la música en su grabadora casera. Las cintas magnéticas ofrecían a los usuarios la capacidad de almacenar grandes cantidades de datos en un medio que era rápidamente accesible.

Durante el período de los sistemas de la segunda generación, los fabricantes hicieron hincapié en el desarrollo de lenguajes de programación menos técnicos que fueran más fáciles de emplear para los usuarios. Los lenguajes introducidos durante el período de 1958 a 1963 incluyen lenguaje ensamblador, FORTRAN y COBOL; el FORTRAN fue aplicado a los problemas científicos y el COBOL fue diseñado para uso en negocios.

El concepto de separar las actividades científicas y de negocios, fue aplicado también a las computadoras de la segunda generación. Dos de los mayores sistemas de esta categoría fueron las series IBM 1401 e IBM 1600. Las series 1401 estaban diseñadas para realizar operaciones de proceso de datos que involucraban datos numéricos y alfabéticos. Las series 1600 tenían asignadas aplicaciones científicas en las que se empleaban principalmente datos numéricos. Cada tipo de computadora era diseñada para uso restringido de un área específica.

Es conveniente en este momento presentar y definir los siguientes términos relacionados con el manejo de datos sobre computadoras. Hardware es el soporte físico que permite el procesamiento de los datos. Software consiste en programas de computadora que dirigen al hardware en la realización de sus tareas informáticas. Para que una computadora lleve a cabo cualquier tarea, se la debe suministrar una serie de instrucciones en forma de programa. Software es el término general aplicado a los diversos programas que pueden ser usados para el tratamiento informático de los datos.

HISTORIA: TERCERA GENERACIÓN DE COMPUTADORAS:

Como las dos generaciones anteriores, la tercera generación de computadoras estuvo marcada por un gran cambio en la tecnología. La construcción de la tercera generación de computadoras se basó en los circuitos miniaturizados, un producto lateral del esfuerzo espacial americano. Estos circuitos avanzados reemplazaron el cableado convencional asociado con los primeros sistemas de computadoras y ofrecieron mayores velocidades internas. Las computadoras de la tercera generación fueron capaces de alcanzar velocidades operacionales de nanosegundos (mil-millonésima de segundo), procesando muchos millones de instrucciones en un solo segundo.

Fue con la aparición de los sistemas de la tercera generación, cuando las computadoras comenzaron su aparición en todos los aspectos de la sociedad americana. Cuando las computadoras habían sido poco usadas, ahora se hacían importantes herramientas de organizaciones que manejaban todo tipo de datos. El sistema computador de la compañía llegó a ser una de las primeras cosas consideradas cuando se querían promover los negocios, implicando la puesta al día de la organización y su capacidad de servir cada necesidad del cliente.

Uno de los mayores sistemas de computadoras que aparecieron durante este período, fue el sistema IBM 360. Fue la amplia aceptación del sistema 360 y su uso con éxito en todas las áreas de la ciencia y los negocios, lo que hizo de él un hito en la tercera generación de computadoras. El sistema 360 representaba tal cambio respecto del hardware de la segunda generación, que fue clasificado como una computadora de propósito general. Fue diseñado para llevar a cabo actividades de procesamiento científicas y de negocios. Su diseño permitía a los usuarios la flexibilidad de realizar el amplio rango de actividades que deben emprender las modernas corporaciones.

Una importante unidad hardware, que complementó a la tercera generación de computadoras, fue el disco magnético. El disco magnético supuso un cambio significativo respecto a todos los dispositivos de almacenamiento anteriores, ya que permitía el acceso aleatorio a los datos contenidos en los archivos de las computadoras. Previamente, los datos sólo podían ser almacenados secuencialmente, y a un registro individual sólo podía accederse después de que todos los registros anteriores hubieran sido explorados.

Usando técnicas de almacenamiento en disco, los programadores pudieron acceder a elementos específicos de los datos directamente, sin involucrar otros registros de este archivo. Por tanto los archivos de las computadoras podían componerse en series de registros, con cualquier registro accesible e independientemente vía disco magnético.

El potencial de tratamiento de datos ofrecido por los discos magnéticos fue inmediatamente reconocido en el área de los negocios. Las empresas que previamente estaban limitadas por la incapacidad de acceder a los datos directamente, ahora podían servir inmediatamente a sus clientes; el deseo de los ejecutivos de información más rápida podía ser satisfecho ahora de una manera realista.

La nueva capacidad se aplicó a los sistemas de reserva de billetes aéreos.

Los sistemas anteriores necesitaban días para confirmar las reservas de los clientes, siendo gran cantidad del manejo de datos externa a la computadora. Con el soporte del disco, fue posible responder a las peticiones de reserva de los clientes mientras éstos esperaban al teléfono.

Se consiguieron también grandes avances en la transmisión de datos entre sistemas de computadoras y usuarios localizados a muchos kilómetros de distancia. Los datos de las computadoras se podían transmitir por líneas telefónicas y por microondas a centros de computadoras, proporcionando así un soporte de procesamiento de alta velocidad a las organizaciones extensamente distribuidas. El término telecomunicaciones, se introdujo para describir las actividades relacionadas con la transmisión de datos informáticos a través de líneas de comunicación.

IBM 360 generacion de computadoras

El sistema IBM 360 fue una importante computadora de la tercera generación.

Los fabricantes de computadoras se dieron cuenta rápidamente de que los usuarios requerían lenguajes de programación más adecuados a sus necesidades, con características eficaces no encontradas en los lenguajes de la segunda generación.

Los lenguajes de programación tenían que ser aprendidos más rápidamente, entendidos y ayudados por documentación adecuada para describir su uso. Asimismo los fabricantes se dieron cuenta de que si los lenguajes de programación eran más fáciles de usar y aprender, habría más gente atraída por la computadora y potencialmente podrían adoptar su uso. Las raíces de la revolución actual del uso de la computadora en la casa y en los negocios están en estas realizaciones.

Dos lenguajes que ganaron gran preeminencia con el hardware^de la tercera generación, fueron FORTRAN y COBOL. FORTRAN fue el lenguaje preferido de la comunidad científica, ya que su formato algebraico era adecuado para expresar fórmulas y secuencias para resolver problemas. COBOL se desarrolló para las necesidades específicas de la comunidad de los negocios, permitiendo directamente la manipulación de datos almacenados en archivos de computadora y la preparación de informes impresos.

Su formato, similar al inglés, contrastaba fuertemente con el formato algebraico del FORTRAN, y permitía a la gente del mundo de los negocios, no familiarizada con conceptos matemáticos, a entender el software relacionado con sus actividades. Este fue un factor importante en la amplia aceptación que tuvo en el citado círculo de profesionales.

discos magneticos

La aparición de los discos magnéticos significó el auge de las computadoras en los negocios y las hizo una importante herramienta de procesamiento de datos.

La oleada de actividades relacionadas con las computadoras que surgieron como consecuencia de la tercera generación, se centró en las necesidades de software del usuario individual. Mucha gente estaba interesada en generar su propio software pero no tenían ni el deseo ni la inclinación a trabajar con los lenguajes entonces existentes. Además, los usuarios querían interactuar directamente con la computadora mientras desarrollaban su software.

Fueron estos requerimientos los que llevaron al desarrollo del lenguaje de programación BASIC.

El BASIC está considerado como un lenguaje interactivo, ya que los usuarios pueden interactuar directamente con la computadora instrucción a instrucción a través de la terminal. Un usuario sentado ante el teclado del terminal introduce las instrucciones requeridas y observa inmediatamente su efecto según se procesan estas instrucciones.

Dos términos asociados con el uso de un lenguaje interactivo son en línea (on-line) y teleproceso. Los dispositivos terminales en línea transfieren directamente datos entre el usuario y la computadora. El teleproceso implica actividades de telecomunicación y proceso de datos, donde intervienen pantallas similares a las de televisión. Estas pantallas como las de televisión se llaman tubos de rayos catódicos (CRT).

HISTORIA: CUARTA GENERACIÓN DE COMPUTADORAS

A finales de la década de los setenta se produjo una nueva convulsión en el mundo de la informática: el nacimiento y posterior utlización masiva del microprocesador. También se perfeccionaron notablemente las unidades auxiliares de almacenamiento y comunicación.

Esta es la generación vigente en la actualidad, en la que la microelectrónica ha volcado toda su innovación en el hardware de los ordenadores aportando circuitos integrados de media, alta y muy alta escala de integración, caracterizados por una elevadísima fiabilidad y alta velocidad de operación. Lo que menos ha variado, al menos tan sustancialmente como lo hizo en anteriores saltos generacionales, son los procedimientos de explotación de la máquina.

El protagonista indiscutible de esta cuarta generación es el ordenador personal, cuyas prestaciones son equiparables a las de los miniordenadores e incluso grandes equipos operativos de hace muy pocos años. El ordenador personal es el responsable de que la informática haya logrado la enorme popularidad de que goza en nuestros días.

La presencia del ordenador en la mesa de trabajo de muchos profesionales, e incluso en millones de hogares, es un hecho que ha pasado de inimaginable a plena realidad cotidiana.

EL CHIP DE SILICCIO:

La aparición del chip de silicio señaló el siguiente gran paso en la construcción de la computadora. Sin embargo, una falta de consenso entre parte de los expertos en computadoras ha dejado sin aclarar la cuestión de si el chip constituye la cuarta generación de equipos de computadoras. Aparte de esta controversia, el chip ha estado detrás de los perfeccionamientos y ha sido el componente más importante de la construcción de las actuales computadoras.

Una consecuencia del chip fue una mayor reducción del tamaño del hardware. Los chips actuales empaquetan literalmente miles de circuitos; un chip puede contener instrucciones de programa o retener miles de datos. Las computadoras que una vez ocuparon una habitación entera pueden construirse ahora en el espacio de un escritorio de oficina.

El sistema IBM 370 es uno de los sistemas que usa la tecnología de los chips. La figura 1.7 ilustra el sistema 370 y uno de los chips en su construcción. El sistema 370 en sus diferentes nodelos es capaz de proporcionar soporte informático a grandes y pequeñas organizaciones. Grandes cantidades de almacenamiento en disco, así como funciones de telecomunicación, son características del sistema IBM 370.

Otro tipo de computadora que tuvo importancia en los años 70, fue la minicomputadora. Las minicomputadoras son más pequeñas que los sistemas de computadoras convencionales pero ofrecen capacidades de procesamiento similares a un precio competitivo. Las minicomputadoras fueron introducidas inicialmente en 1965 por Digital Equipment Corporation pero alcanzaron amplia aceptación cuando los procesadores de datos descubrieron su limitado pero efectivo potencial de procesamiento. Ofrecen las mismas características operativas en los grandes sistemas pero en un grado menor.

La figura de abajo muestra las primitivas capacidades de proceso de discos y cintas magnéticas de las mini-computadoras. La microcomputadora (o computadora casera) es otro resultado de la tecnología del chip. Los aspectos de proceso fundamentales de una computadora se reproducen en la intrincada circuitería del chip. La microcomputadora puede usarse tanto para negocios como para actividades de recreo en casa. El principal lenguaje de programación usado en microcomputadoras es el BASIC.

https://historiaybiografias.com/archivos_varios5/discos_magneticos1.jpg

Las antiguas minicomputadoras poseían las mismas características operativas que los grandes sistemas. Tanto las cintas como los discos magnéticos pueden ser usados en los sistemas minicomputadores para almacenar grandes cantidades de datos.

Las microcomputadoras ofrecen también capacidad de tener almacenamiento en cintas y discos. Pequeñas cintas de cásete ofrecen almacenamiento secuencial de datos en cinta magnética. Discos pequeños y flexibles, llamados floppy disks o disquetes, proporcionan las operaciones de almacenamiento en disco en las microcomputadoras. Estos pequeños sistemas poseen también CRT con pantallas de color y muchos tipos de dispositivos impresores. Muchos tipos de software para negocios y entretenimientos son accesibles comercialmente para computadoras.

Tecnología moderna de las computadoras de los años 90:

Continuando el patrón marcado por las generaciones anteriores, las computadoras de la década del 90 se han hecho más rápidas, pequeñas y fiables. Los dispositivos que apoyan a las computadoras actuales se han hecho igualmente sofisticadas y complejas. Las tecnologías desarrolladas en otros campos se han aplicado a producir nuevos dispositivos para completar las capacidades de computación existentes. Los dispositivos resultantes han acelerado el flujo de los datos de la computadora y añadido nuevas dimensiones al proceso de la información.

Muchos dispositivos computadores han incorporado láseres de baja potencia como parte de sus operaciones. Las impresoras que usan el láser han alcanzado velocidades de hasta 21.000 líneas impresas por minuto. Otro tipo de impresora de alta velocidad capaz de preparar múltiples informes en minutos utiliza la fibra óptica para transmitir y registrar datos. Con la fibra óptica los datos se transmiten en forma de impulsos de luz a través de hilos hechos de silicio, aumentando así la velocidad de operación del dispositivo.

La industria de las computadoras ha incorporado satélites a sus servicios de comunicación de datos. Muchas redes de computadoras usan satélites para transmitir rápidamente datos entre continentes y oficinas centrales ampliamente dispersas. En algunas transmisiones por satélite se usan láseres de baja potencia para transmitir y guardar datos temporalmente.

Aparecieron los primeros servicios para transmisión digital a alta velocidad, reservados sólo para datos de computadora, funcionando con centros de satélite. Las comunicaciones por satélite representan algunas de las actividades de telecomunicación más importantes de las hoy utilizadas.

LOS PRIMEROS ALMACENAMIENTOS MASIVOS DE DATOS:

La llegada del chip no ha significado el fin de la investigación en el área del almacenamiento de datos. En 1979 Motorola Corporation presentó un chip que contenía el equivalente a 68.000 transistores. Al cabo de dos años un chip de aproximadamente 1/2 pulgada cuadrada y capaz de almacenar 72.000 datos fue presentado por IBM. La investigación está actualmente detrás de desarrollar un chip microminiaturizado que poseería una capacidad de almacenamiento multimillonario y funcionaría en milmillonésimas de segundo.

Aunque la investigación sobre microchips está en su etapa de desarrollo, otras técnicas de almacenamiento están empezando a demostrar que pueden tener su aplicación práctica. Las memorias de burbujas magnéticas y el dispositivo de efecto Josephson están empezando a ser prcrnetedores. El concepto de memoria de burbujas magnéticas se relaciona con el movimiento de burbujas electrónicas a través de una superficie magnética especial. El movimiento de las burbujas crea unos impulsos que son traducidos por la computadora a un formato de datos codificados.

El dispositivo de efecto Josephson está usándose actualmente en prototipos de computadoras para perfeccionar su funcionamiento. Este dispositivo de conmutación es muy prometedor por su capacidad de mover los datos dentro de la computadora a velocidades extremadamente altas. El dispositivo de Josephson ha llegado a alcanzar velocidades del rango del picosegundo (billonésima de segundo). Estas altísimas velocidades, aunque actualmente

Cómo se mide la memoria de un ordenador

La forma de medir la memoria o capacidad de almacenamiento de información es idéntica para todas las unidades de un ordenador. Basta con expresar el número de BITS que se pueden almacenar para dar una medida exacta de la capacidad de memoria, tanto en el caso de la memoria principal como en el de la memoria auxiliar (cintas magnéticas, discos…). En cualquier caso, debido a la lógica con la que se almacenan los datos y a los órdenes de magnitud que sería preciso manejar, el bit no resulta una unidad apropiada. Por ello, se adoptan como unidades de medida determinados múltiplos del bit o unidad elemental de información binaria.

Estas unidades son:
Palabra
Se denomina palabra a toda cadena de bits utilizada para representar un único ente de información (carácter alfabético, cifra numérica…).

Byte (octeto)
Palabra constituida por un conjunto de oche dígitos binarios o bits. En algunos casos el octeto puede considerarse como una subdivisión del formato de palabra con el que opera determinado ordenador; así, puede hablarse de palabras de 2 y 4 octetos, según estén formadas por 16 ó 32 bits.

Kilo-byte (KB)
Un Kbyte equivale a 1.024 octetos o bytes (esto es: 8.192 bits). El hecho de corresponder a 1.024 y no a 1.000 se debe a que un Kbyte es igual a 210 (la base del sistema binario elevada s exponente 10). Esta unidad es la más comúnmente utilizada para medir la capacidac de almacenamiento de la memoria de un ordenador.

Megabyte (MB)
Para la representación de grandes volúmenes de memoria, como la que corresponde a un disco magnético rígido, el Kbyte resulta una unidad muy reducida. De ahí que se haya hecho necesario definir otra unidad de rango superior, el «Mbyte», que equivale a un millón de octetos o bytes.

LAS TAREAS QUE PUEDE REALIZAR UN COMPUTADOR

Procesamiento de información Preparación de nóminas y facturas

Mantenimiento de la información de inventarios

Mantenimiento de las cuentas de clientes

Procesamiento técnico de la información de referencia por medios de comunicación y bibliotecas públicas

Cálculo del impuesto a la renta.

Mantenimiento de los registros estudiantiles en las universidades

Mantenimiento de la información de vuelos y reservaciones en las aerolíneas.

Catalogación de los suministros de sangre en bancos regionales de sangre

Mantenimiento de cuentas corrientes en los bancos

Edición y reproducción de manuscritos mecanografiados

Mantenimiento de los registros criminales por los servicios de investigación

Mantenimiento de los registros de impuestos a la propiedad en una municipalidad Presupuesto de organizaciones e individuos

Registro de la distribución monetaria por las agencias gubernamentales de bienestar social

Modelos matemáticos

Análisis estadísticos de los datos de censos, datos biológicos, datos de ingeniería, etc.

Planeamiento de la producción y control de inventarios

Diagnóstico médico

Análisis orbital para satélites

Administración de la cartera financiera

Localización de estaciones de bomberos en una área urbana

Simulación de la decadencia económica en una ciudad

Planeamiento de dietas alimentarias en instituciones

Pronóstico estadístico

Planeamiento educativo y planeamiento de la ruta de buses escolares Diseño de sistemas de tráfico en autopistas y aeropuertos

Análisis químico

Diseño de sistemas de energía solar

Planeamiento, programación y control de proyectos complejos (tales como la construcción de un submarino, un edificio para oficinas o un estadio)

FECHAS HISTÓRICAS CLAVES DE LA HISTORIA DE LA COMPUTACIÓN:

Fecha desconocida  Abaco

1642 Machine arithmétique de Pascal

1671 Calculadora de Leibniz

1720 Tiras de papel perforadas de Bouchon para tejer

1801 Telar automático de Jacquard

1812 Máquina de diferencias de Babbage

1820 Calculadora de Thomas, disponible comercialmente

1833 Máquina analítica de Babbage

1830 Análisis de Lady Lovelace de las ideas de Babbage

1884 Máquina sumadora de Burroughs con capacidad de imprimir

1885 Calculadora de Felt capaz de realizar cálculos con varios dígitos

años 1880 y 1890 Trabajo de Hollerith en el censo de EE. UU.

años 1880 y 1890 Utilización de las tarjetas perforadas de Hollerith y de equipo de cálculo para analizar los datos del censo

1907-1910 Nuevo sistema de procesamiento con tarjetas de Power para el censo de EE. UU.

años 1930 a 1956 Primera generación de computadoras

1934 Trabajo de Atanasoff en Iowa

1937 Computadora Mark I de Aiken. Harvard

1939 Computadora Atanasoff-Berry (ABC)

1941 Colussus. británico

1946 Mauchly y Eckert inventan el ENIAC en la Universidad De Pennsylvania

1949 Concepto de programa almacenado de Von Neumann e invención del EDSAC

1951 Mauchly y Eckert inventan el EDVAC en la Universidad de Pennsylvania

1951 UNIVAC I

1953 IBM 701

1954 IBM 650 mediados 1950 IBMf702 y 704 mediados 1950 Cinta magnética

1957 a 1963 Segunda generación de computadoras

últimos 1950 a primeros Series IBM 1401 y 1600 1960

1964 a primeros 1970 Tercera generación de computadoras mediados 1960 a primeros IBM System/360

1970 mediados 1960 Disco magnético

1965 Mínicomputadoras primeros

1970 Chip de silicio primeros 1970 IBM System/370 últimos

1970 Fibras ópticas últimos

1970 Microcomputadoras

1979 Chip microprocesador últimos 1970 Memoria burbujas magnéticas

1980 Dispositivo de conmutación de efecto Josephson años 1980 Computadoras de conexión compatible
años

1990 Primeras Experiencias de Inteligencia artificial

2000 Internet

GLOSARIO PRIMITIVO DE COMPUTACIÓN:

Almacenamiento en cinta magnética. Una técnica de almacenamiento en la que los datos son accedidos secuencialmente desde los ficheros grabados en la superficie de la cinta magnética.

BASIC. Un lenguaje de programación que permite al usuario interactuar directamente con la computadora.

COBOL. Lenguaje de programación asociado fundamentalmente con las aplicaciones comerciales.

Compatibilidad de conexión. La propiedad de la mayoría de computadoras modernas que permite que los dispositivos funcionen juntos adecuadamente por medio de una simple interconexión.

Computadora de propósito general. Una computadora capaz de tratar problemas científicos y comerciales.

Concepto de programa almacenado. El concepto debido a Von Neumann que propone que el programa y sus datos estén en la computadora, controlando su operación.

CRT. Letras iniciales de cathode ray tube (tubo de rayos catódieos), usadas para describir un terminal que muestra datos de forma similar a los televisores.

Chip de silicio. El componente de la computadora usado para construir computadoras posteriores a la tercera generación. En él hay miles de circuitos para guardar datos o instrucciones del programa.

Disco magnético. Técnica de almacenamiento en la que los registros individuales de datos pertenecientes a ficheros son accedidos directamente de forma aleatoria.

Disquete. Pequeño disco flexible utilizado como memoria en sistemas de microcomputadora.

En línea. La capacidad de un usua-i o de tener acceso directo al • >mputador para realizar el procesamiento de datos.

Fibras ópticas. Una tecnología en la que se transfieren los datos en forma de impulsos de luz por líneas de comunicación hechas de silicio.

Floppy disk. Sinónimo de disquete.

FORTRAN. Un lenguaje de programación desarrollado en los años 1950 que utiliza formato algebraico y está bien adaptado a las aplicaciones científicas.

Hardware. El término aplicado generalmente a todos los dispositivos en los que se realizan procesamientos informáticos de datos.

Inteligencia artificial (AI). Una técnica de investigación que pretende dar a las computadoras los recursos para tomar decisiones en respuesta a cambios en las condiciones operativas.

Lenguaje interactivo. Un lenguaje de programación que permite a los usuarios comunicarse con la computadora en el procesamiento de datos.

Microcomputadora. El sistema informático más pequeño, construido con chips de silicio y aplicado en el hogar y los negocios.

Minicomputadoras. Computadoras orientadas a tareas, introducidas por primera vez en 1965. y que ofrecen un potencial de procesamiento similar al de los sistemas grandes poro a un precio competitivo.

Primera generación de computadoras. Las primeras series de computadoras eran grandes, voluminosas, difíciles de programar y estaban construidas con tubos de vacío.

Programa. La serie de instrucciones escrita en el lenguaje del computador y que le dirige en sus tareas de procesamiento.

Segunda generación de computadoras. La segunda era impártante de la informática, en fe que las computadoras se cpnstrüían con transistores.

Software. El término aplicado’a los programas que dirigen y:x;ontro-lan el procesamiento de la computadora.

Telecomunicaciones. El uso de alguna forma de línea de comunicación que conecte a los usuarios con la computadora y permita el tratamiento en lineare los datos.

Que son las Vitaminas A,B,C,D,E Tipos, Funciones y Características

Que son las Vitaminas A,B,C,D,E
Tipos, Funciones y Características

1-Vitaminas Liposubles e Hidrosolubles

2-Procedencia de las Vitaminas

3-Vitaminas A,B,C,D,E y sus Funciones

4-Historia de las Vitaminas

5-Tabla de Vitaminas y Características

6-Historia del Descubrimiento de las Vitaminas

7-Vitaminas Mas Importantes Para El Hombre

Que son las Vitaminas A,B,C,D,E Las vitaminas son compuestos sin valor energético, con componentes  que el organismo necesita  para funcionar correctamente, tener una buena salud física y mental, y conseguir un crecimiento adecuado. Son compuestos orgánicos distintos de las proteínas, grasas e hidratos de carbono. Se los considera nutrientes esenciales para la vida.

Son sustancias orgánicas que nuestro cuerpo necesita en cantidades muy pequeñas, pero que no puede producir por sí mismo. Por lo tanto, le han de ser suministradas con la alimentación.  El conocimiento de las vitaminas es relativamente reciente. En realidad, todas ellas han sido descubiertas en el siglo XX.

Sin embargo, anteriormente ya se conocía el hecho de que, cuando se alimentaba a animales de experimentación con una dieta que contiene hidratos de carbono, grasas y proteínas en estado puro, los animales dejaban de crecer, enfermaban y acababan por morir.

El sueño de algunos científicos, de poder alimentarse con una dieta químicamente pura, creando alimentos sintéticos, se desvanecía.

Los animales y el hombre, necesitan algo más que hidratos de carbono, grasas y proteínas, por muy abundantes que estas sean.

Debían de haber pues, algunas sustancias en los alimentos en su estado natural, que resultaban imprescindible para la vida. En 1912, el bioquímico polaco Casimir Funk llamó a esas sustancias las ‘aminas de la vida, o vitaminas.

Las vitaminas son compuestos imprescindibles para el crecimiento y el desarrollo para el correcto funcionamiento de los tejidos y para un gran número de procesos metabólicos y fisiológicos.

La relación entre la dieta y determinadas patologías se conoce desde la conquista del Nuevo Mundo; a través de estas expedición se comprobó que la ingestión de algunas sustancias, como el pimentón, disminuía aparición de ciertas enfermedades. Del mismo modo, en la marina inglesa se erradicó el escorbuto gracias al consumo del jugo del limón.

Una característica común a todas las vitaminas es que son necesarias, en cantidad reducidas, para el correcto funcionamiento del metabolismo. Por otro lado, no todos los animales presentan los mismos requerimientos vitamínicos. Las aves y las ratas sintetizan la vitamina C, mientras que el ser humano y los simios no presentan esta capacidad, modo que deben tomarla a través de los alimentos.

La necesidad de vitaminas varía según la especie, la edad del individuo, el nivel de crecimiento, la actividad diaria, la existe de un estado de gestación, la situación de convalecencia de las enfermedades, etc.

En casos de mayor desgaste metabólico, o bien cuando la dieta nos es variada y en ella se incluyen alimentos frescos, se pueden presentar estados carenciales. Cuando esta falta de vitaminas es reducida, se habla de hipovitaminosis, una afección que provoca ciertas alteraciones; la carencia total de vitaminas se denomina avitaminosis y puede acarrear enfermedades muy graves.

Por otra parte, el exceso de vitaminas conduce a lahipervitanosis, responsable igualmente de diferentes patologías y alteraciones metabólicas.

Para designar a las vitaminas se pueden usar tres tipos de códigos: una letra mayúscula, un término relacionado con la enfermedad que se produce ante su ausencia o el nombre químico. La composición química de las vitaminas es muy variable; obstante, todas ellas son muy hábiles; es decir, muy sensibles al calor, al oxígeno, a cambios de pH y a la luz. Existen dos grandes grupos:

Vitaminas liposolubles: se caracterizan por no ser solubles en agua, pero sí los compuestos lipídicos. Son abundantes en alimentos con alto contenido lípidos, como el hígado de ciertos animales. Precisamente la estructura lipídica favorece su acumulación.

Vitaminas hidrosolubles: se solubilizan muy bien en agua, por lo que su eh nación a través de los riñones es muy eficaz. Por este mismo motivo no se acumulan como material de reserva.

Procedencia de las vitaminas: Las vitaminas son producidas primeramente por los seres del reino vegetal, ya sean las plantas superiores, los hongos o las bacterias. En algunos casos, los animales pueden transformarlas y almacenarlas, como ocurre por ejemplo con las vitaminas A y D, que los vegetales producen como pro-vitaminas, y se almacenan en el hígado de los peces y mamíferos como vitaminas. Sin embargo, la fuente básica de vitaminas, son los alimentos vegetales. La carne, por ejemplo, es muy deficiente en vitamina C.

Vitaminas liposolubles

Vitamina A

La vitamina A o retinol es un alcohol liposoluble de cadena larga. Es una molécula sensible a la luz ultravioleta, a los ácidos y al oxígeno. A principios del siglo XX se idearon ciertas sustancias liposolubles que eran esenciales para el crecimiento y el desarrollo animal, cuya síntesis química se debe a Isler (1947).

Se sabe que la vitamina A participa en el proceso de la visión; forma parte de la rodopsina presente en la retina del ojo.

Cuando incide la luz sobre la retina, esta molécula se rompe y se produce la cascada de reacciones que conduce a la formación de un impulso nervioso que se transmite a través del nervio óptico hacia el cerebro. La hipovitamiflosis (carencia de vitaminas) determina alteraciones de las glándulas sebáceas y sudoríparas, de la mucosa respiratoria, y provoca también sequedad en el ojo o xeroftalmia, que incluso puede afectar a la conjuntiva o a la córnea.

En niños pequeños, el exceso de esta vitamina conduce a estados de irritabilidad, vómitos y dolor de cabeza. Los alimentos ricos en vitamina A son el hígado de pescado y de vaca, los huevos, la leche, las zanahorias y la mantequilla.

En los vegetales coloreados (zanahoria, tomate, etc.) se encuentra en forma de provitamina, conocida como beta-caroteno, que nuestro organismo transforma en auténtica vitamina A (retinol) según sus necesidades.

Debido a que la absorción intestinal de los carotenos no es tan fácil como la de la vitamina A procedente de los alimentos animales, se calcula que se necesitan seis veces más de caroteno vegetal que de retinol animal. Aun así, la dieta vegetal normal aporta cantidades sobradas de vitamina A.

No ocurre lo mismo con los alimentos animales, en los que, exceptuando el hígado de los animales, ciertos pescados, o los lácteos, es bastante escasa. La carne magra es muy pobre en vitamina A.
Según la OMS, la vitamina A es de la que más se carece en determinadas regiones del mundo. Al igual que ocurre con otra vitamina liposoluble, la D, el exceso de vitamina A en su estado definitivo (retinol), tal como se encuentra en los animales, resulta tóxico para el hombre.

Funciones
• Formación de los pigmentos visuales en la retina. La falta de vitamina A impide ver con poca luz (ceguera nocturna).

• Formación y mantenimiento de las células que recubren la piel, los ojos, la boca y los órganos internos. Cuando falta vitamina A, la piel, y especialmente la conjuntiva que recubre al ojo, se resecan y debilitan, Cuando este déficit es grave llega a producirse la ceguera. Entre los niños del tercer mundo todavía se dan numerosos casos de ceguera por falta de vitamina A.

• Evita la formación de tumores cancerosos en los órganos de nuestro cuerpo, debido a su poderosa acción antioxidante. Este efecto lo produce en su forma de provitamina vegetal (caroteno). Se ha comprobado que los fumadores que toman muchas hortalizas, especialmente zanahorias), padecen menos cáncer de pulmón que los fumadores que consumen pocas.

Vitamina D

La vitamina D tiene diferentes formas metabólicas, según sea de origen animal o vegetal. La forma habitual en el ser humano es la vitamina D3 o ergocalciferol, que deriva del 7-dehidro-colesterol por irradiación ultravioleta. La asociación del raquitismo y la luz solar conllevó la realización de diferentes estudios que culminaron en la síntesis de los primeros esteroles, en los años treinta del siglo XX. La función de esta vitamina es la de favorecer la absorción intestinal de calcio y fósforo, y la correcta formación de los huesos.

Su carencia, por una mala dieta o por una falta de exposición a la luz solar, puede conducir a los niños en crecimiento al raquitismo. Esta patología consiste en una calcificación de los huesos, que puede dar lugar a su arqueamiento. Los síntomas son debilidad muscular, dolores, alteraciones al caminar, etc. La vitamina D está presente en pescados grasos, como la sardina y el arenque, en los huevos y en el queso.

Vitamina E

La Vitamina E o tocoferoles está formada por un conjunto de líquidos oleosos solubles en os disolventes de las grasas. Existen ocho tipos en total. Tiene una función antioxidante pues evita la oxidación de los ácidos grasos insaturados presentes en las membranas celulares, reduciendo los fenómenos de deterioro.

No obstante, todavía no se ha establecido completamente su relación con el retraso en la aparición de tumores y el proceso de envejecimiento de los humanos.

En ciertos animales, no en el hombre, Su carencia está asociada con alteraciones en el hígado y en el sistema inmunitario; además, puede conducir a la esterilidad. Está presente en los aceites vegetales, en el germen de trigo, en los huevos y en la mantequilla.

Vitamina K

Vitamina K está constituida por varias sustancias denominadas naftoquinonas, que participan en el proceso de la coagulación de la sangre, en concreto, en la síntesis de la protombina. Su déficit, por una absorción reducida o ingestión de ciertos antibióticos ocasiona hemorragias, osteoporosis y fracturas de huesos. Es muy abundante en verduras como la col y las espinacas.

Vitamina B1

También llamada tiamina, da lugar en su metabolismo al pirofosfato de tiamina o PP que participa como coenzima en multitud de procesos metabólicos. Su déficit, ocasionando por un consumo habitual de productos refinados, de alcohol o de carbohidratos, provoca una degeneración del sistema nervioso.

En el ser humano ocasión un conjunto de síntomas que se conocen como la enfermedad del beriberi. Esta vitamina se encuentra en el germen de trigo y en la levadura de la cerveza.

La vitamina B1 está presente en alimentos como el hígado, la leche, el pan, el germen de trigo cereales. La enfermedad del beriberi, que se manifiesta a través de síntomas neurológicos, anomalías cardiovasculares y edema, está provocada por su déficit.

Esta vitamina se descubrió en el arroz integral, a principios del siglo XX, al notar que este alimento era capaz de curar la enfermedad del beriberi.

Funciones: Interviene en el metabolismo de los hidratos de carbono, facilitando las reacciones químicas mediante las cuales su producto final, la glucosa, se transforma en energía.
e Es un factor esencial en las funciones del sistema nervioso. Su falta ocasiona irritabilidad y desequilibrio nervioso.

Su carencia ocasiona el beriberi, enfermedad que afortunadamente ya se ha vuelto rara en el mundo. La vitamina B1 se halla muy extendida en la naturaleza, y todas las frutas, cereales (especialmente los integrales) y hortalizas, la contienen. Son pobres en vitamina B1 el azúcar blanco (no el azúcar moreno o la miel), y la harina blanca refinada (no la harina integral). La dieta a base de fruta, cereales y hortalizas suple sobradamente las necesidades de esta vitamina.

Vitamina B2

En la leche se encuentra libre en un 90%, pero también puede aparecer asociada con proteínas formando el FMN y el FAD. Participa en los procesos de crecimiento y en el metabolismo de la piel y las mucosas. Con su carencia se producen alteraciones en la piel y en los ojos y retraso en el crecimiento.

Vitamina PP

Vitamina engloba a dos metabolitos principales, estables y solubles en agua: el ácido nicotico y la nicotinamida.Como parte de estas dos coenzimas participa en las rea4 de la respiración aerobia. Su deficiencia produce fatiga y lesiones en la piel. Su contenido se equilibra con una dieta rica en carnes y pescados.

Vitamina B5

En 1953, F. A. Lipmann y H. A. Krebs recibieron el premio Nobel de Fisiología y Medicina por descubrir la presencia, como componente de la coenzima A, del ácido pantotémico o vitamina B5. Su carencia provoca alteraciones en la coordinación motora y de circulación sanguínea en las extremidades inferiores. Está presente en el hígado de animales y en prácticamente todos los alimentos.

Vitamina B6

También conocida como piridoxina, da lugar en su metabolismo al piridoxal, que es una parte importante del metabolismo de las proteínas. El desequilibrio del sistema nervioso ante su carencia se restablece con la ingestión de frutas, carnes, pescados y legumbres.

Vitamina B8

La vitamina B8 o biotina participa en las reacciones de descarboxilación. Se encuentra en una amplia gama de alimentos y su carencia ocasiona anorexia, vómitos, alopecia y dermatitis.

Vitamina B9

Esta vitamina, conocida como ácido fólico, participa en la síntesis de las bases nitrogenadas que forman los ácidos nucleicos. La ausencia de espinacas, coles, hígado, eche y carne en la dieta puede ocasionar trastornos digestivos agudos.

Vitamina B12

También llamada cianocobalamina, Interviene en la formación de los glóbulos rojos de la sangre y en el metabolismo de los ácidos nucleicos y las proteínas. Su carencia produce estados de anemia, alteraciones neurológicas y cutáneo-motoras Se encuentra presente en el hígado de varios animales.

Vitamina C

La falta de esta vitamina provocó la primera enfermedad carencial conocida el escorbuto, cuya curación se debió al consumo de jugo de limón Se encuentra en los cítricos, las verduras, las fresas y el kiwi.

La carencia de vitamina C, presente en los cítricos, puede provocar la aparición del escorbuto, patología caracterizada por astenia, hemorragias subcutáneas, alteración de algunos tejidos, especialmente el de las encías, y debilidad general

Ver También: Las Mas Importantes Vitaminas Para el Organismo

Ver También: Historia Descubrimiento ADN

PARA SABER MAS…
UN POCO DE HISTORIA SOBRE LAS VITAMINAS

Casimir FunkEl escorbuto dominaba en alta mar. El beriberi era una epidemia en todo el sudeste asiático. La pelagra, una amenaza en todo el mundo.

Excepto el antídoto contra el escorbuto de la armada inglesa, grandes cantidades de limas (de ahí el mote de «limey» de los marinos británicos), no se conocía protección alguna contra estas temidas enfermedades hasta que en 1912 Casimir Funk publicó su artículo La etiología de las enfermedades deficitarias.

En el texto, Funk, un joven y brillante bioquímico polaco (obtuvo el doctorado a los 20 años y solo tenía 28 en la época de su avance decisivo), mostró que las enfermedades estaban causadas por deficiencias alimentarias.

«Las sustancias deficitarias que se llamarán vitaminas», escribió. En el transcurso de su investigación, Funk postuló que cuatro sustancias de éstas (más tarde identificadas como vitaminas Bi, 62, C y D) eran imprescindibles para una buena salud.

Como otros habían hecho anteriormente, Funk observó que las enfermedades deficitarias se producían en zonas con dietas de subsistencia monoalimentarias. Trabajando en el instituto Lister de Londres, Funk realizó sus experimentos.

Alimentó pájaros con una dieta consistente exclusivamente en arroz refinado y enfermaron de algo muy parecido al beriberi, enfermedad habitual entre la población que hacía una dieta restringida similar. Funk restituyó la parte del meollo del arroz que había refinado y los pájaros se recuperaron.

Sin embargo, mientras otros habían atribuido la enfermedad a las toxinas introducidas en el arroz al refinarlo (para la que el arroz restituido era un antídoto), Funk estableció correctamente que el problema no era lo que había en el arroz sino lo que había perdido.

Tras un nuevo estudio, Funk fue capaz de relacionar ciertas sustancias orgánicas, sus «vitaminas», con la prevención de enfermedades específicas. Habló de una vitamina beriberi y de otra escorbútica. «Todas las enfermedades deficitarias se pueden prevenir con una dieta completa», concluyó. Sus palabras cambiaron las formas de alimentación en el mundo.

tabla de vitaminas

Ver: Metabolismo y Obesidad

Diferencias entre virus y bacterias Tipos de Virus Clasificacion

Diferencias Entre Virus y Bacterias

Los virus son seres acelulares, extraordinariamente simples, cuyo nivel de organización los sitúa entre lo vivo y lo inerte; aunque son capaces de autoduplicarse en las células vivas, pierden por completo su funcionalidad cuando se los separa de las células que parasitan

A pesar de dedicar parte de su esfuerzo a investigar cuál era la causante de la rabia, Pasteur no logró determinarlo.  El pensaba que se trataba de un microorganismo demasiado pequeño, imposible de ser detectado usando las técnicas de que disponía.  Es entonces, en la última década del siglo XX, cuando comenzaron las investigaciones que permitieron descubrir la existencia de los virus.

En el año 1892, el botánico ruso Dimitri Ivanowski (1864-1920) demostró que el jugo extraído de plantas de tabaco que padecían una enfermedad conocida como “mosaico de tabaco” podía infectar a otras después de atravesar filtros con poros que normalmente retenían a las bacterias.

Sin embargo, es  en el año 1895, cuando el botánico holandés Martinus Beijerinck nombró “virus filtrante” al agente causante de esta enfermedad.  La palabra virus significaba “veneno”. Este descubrimiento marcó el comienzo de la virología. (Fuente Consultada: Bocalandro, N; Frid, D; Socolovsky, L. Biología I)

Estructura de los virus

Estos microorganismos de dimensiones muy pequeñas, presentan una estructura de gran simplicidad, en donde encontramos una envoltura externa similar a la membrana plasmática que contienen las células, una cubierta proteica propia y un ácido nucleico. Sin embargo, hay características relevantes que diferencian a los virus de los restantes grupos de seres vivos: el material genético es ADN o bien ARN, pero nunca ambos tipos a la vez.

En primer lugar, el virus VMT, el de la polio, los parvovirus son moléculas de ADN lineales y monocatenarias, es decir que contienen una sola hebra y por ejemplo el Reovirus, o el virus del herpes, sus moléculas también pueden ser lineales pero bicatenarias, con doble hebra.

Como se mencionaba más arriba, la estructura de los virus es de gran simplicidad, consistente en una cubierta de proteínas llamaba “cápside” (la cual rodea al material genético)  y una molécula de ácido nucleico en su interior.  Esta cápside consta de varias subunidades, la que llamaremos Capsómeros.

El perfil externo de los virus, pueden estar dados según la disposición que adoptan cada uno de estos capsómeros, resultando de ser: poliédricos, heliocoidales o complejos. Por ejemplo, normalmente los que tienen veinte caras como ser el virus de la polio, son los que conocemos como poliédricos; en el caso del virus de la rabia que se dispone en torno al ácido nucleico es el heliocoidal y por último aquellos que están formados por una cabeza, una cola y un posterior sistema de anclaje, son los denominados complejos, como por ejemplo los bacteriófagos (es decir aquellos virus que infectan otros organismos, pero en este caso son las bacterias).  Estos virus presentan una cápside poliédrica, una cola y una estructura de anclaje que consta de espinas y filamentos caudales.

Los virus que infectan animales están provistos de una membrana que les rodea por completo (formada por lípidos y proteínas, estas últimas específicas de cada uno) mientras que los que parasitan plantas, los que invaden bacterias y algunos animales carecen de ella y se denominan virus desnudos.

Dentro del mundo de los microbios, las bacterias y los virus son dos formas de vida dispares. Las primeras son organismos compuestos por una célula muy primitiva, ya que no posee núcleo, aunque se reproducen por sí solas. Bajo las condiciones adecuadas, pueden convertirse en millones en pocas horas por simples divisiones. Por el contrario, un virus es una criatura en el límite de lo que se considera vida. No es otra cosa que un fragmento de ADN -o ARN- dentro de una cápsula. Cuando el virus entra en contacto con la célula, se pega a ésta y le inyecta su material genético. Este ADN secuestra la maquinaria celular para hacer copias de sí mismo y formar nuevos virus. La célula es una fábrica de virus. Pero para que funcione, el agente viral debe hallar una puerta de entrada específica, esto es, un receptor que le abra paso. Así, las células sin ese receptor adecuado no pueden ser infectadas. Por eso, el virus de la polio sólo infecta a los seres humanos y a los primates más cercanos.

El ataque de los Virus:

Cuando un virus ingresa al organismo y comienza a invadirlo, obliga a toda la maquinaria celular a que lo replique o reproduzca y genera así la enfermedad.  Es por esto, que nosotros los humanos hemos desarrollado respuestas que destruyan a estos microorganismos extraños que nos invaden, es decir a todas aquellas células que no son propias de nuestro organismo.  La respuesta a ello son los glóbulos blancos, aquí si típicas células de nuestro organismo, aquellas que descienden de la célula madre localizada en la médula ósea. Por lo general, este ataque a un invasor de características microscópicas es de carácter inflamatorio.  ¿Por qué? Simplemente porque implica la utilización de nuestras células sanguíneas, para aislar y destruir el foco infeccioso detectado.

La sangre, puede definirse como un “órgano líquido que se desplaza de forma constante a través de un sistema de conductos que lo distribuyen por todo el cuerpo. Este órgano tan especial funciona como vehículo de trasporte de gases, como por ejemplo el oxígeno y de los nutrientes, entre otros que son de vital importancia para nuestro funcionamiento.

Pero, los vasos sanguíneos para poder llegar a todas las células del cuerpo, deben ramificarse y disminuir su tamaño.  Los capilares, son justamente estos vasos más pequeños que poseen una capa de células que los recubren funcionando como una minipared.  Estas células se hallan próximas al tejido infectado, la mayoría de los casos es la piel, lo cual producirán la libración de histamina, interferón y otras sustancias químicas, en respuesta inflamatoria ante el virus presentado. ¿Por qué?

Esto se debe que las sustancias químicas tienen la propiedad de lograr que en las paredes capilares se abran orificios, produciendo que los glóbulos blancos salgan del torrente sanguíneo acompañados de otros componentes y líquidos de la sangre. La cara visible de muchas veces de este proceso es lo que conocemos como “pus” (fluido producido), es decir la actividad expulsada de las células, ya que el paso de líquido a la zona afectada provoca la característica hinchazón del foco infeccioso.

La Defensa al Ataque: (ver Inmunidad Humana)

Si el predador microscópico pudo atravesar la primera barrera (la piel, por ejemplo) o si ocurre el contagio directo al interior del cuerpo a través de heridas, la única defensa que nos queda es lo que denominamos respuesta inmune. Esta respuesta inmune es altamente específica e implica fundamentalmente dos tipos de glóbulos blancos de la sangre: los linfocitos B y los linfocitos T. Cuando algún elemento extraño logra ingresar en nuestro cuerpo, los linfocitos B (que maduran en el bazo) comienzan a sintetizar una serie de moléculas que son capaces de inmovilizar al invasor. Estas moléculas se denominan anticuerpos, y tienen una forma característica que es complementaria a alguna estructura de la superficie externa de los invasores. De esta manera los anticuerpos encajan perfectamente en cada porción de la cobertura exterior de los microbios. Un microorganismo queda así en poco tiempo cubierto de anticuerpos.

El proceso lo inmoviliza y, así, es fácil presa de otras células de la sangre, que literalmente se lo comen y lo destruyen. Los linfocitos T son células que maduran en el timo, y son responsables de la destrucción de los agentes infecciosos y de las células que los contienen. Algunos linfocitos T actúan directamente contra el invasor (citotóxicos) y otros lo hacen indirectamente (cooperadores). Los linfocitos T citotóxicos reconocen células que están infectadas con algún parásito intracelular y las destruyen (junto con el agente infeccioso que llevan dentro, claro), mientras que los linfocitos cooperadores aumentan la respuesta inmune.Sin la acción de las células  cooperadoras la respuesta inmune hacia cualquier infección es muy suave e insuficiente.

Así nuestra respuesta a la presencia de algún elemento extraño en la sangre es muy violenta. Tanto, que a nuestros depredadores no les queda otra salida que ser más veloces que nuestras defensas o cambiar.

Muchos virus eligen la estrategia del camuflaje para evitar la acción de la respuesta inmune del huésped. Por ejemplo, el virus de la gripe cambia su estructura externa y se disfraza para que el huésped no lo reconozca.33 Otros, como el virus responsable del sida (síndrome de inmunodeficiencia adquirida), denominado virus de la inmunodeflciencia humana o VIH, han desarrollado una estructura totalmente diferente que les asegura su mantenimiento y proliferación en nuestro cuerpo a pesar de todos los mecanismos de inmunidad que mencionamos.

El VIH invade (y destruye) principalmente las células T cooperadoras, y deja el sistema inmune de la víctima con una capacidad muy disminuida para responder contra las infecciones. En las etapas finales de la enfermedad, el virus invade otras células y tejidos del cuerpo, incluidos los del sistema nervioso. La deficiencia inmunológica termina afectando a los pacientes, ya que no pueden responder con eficacia contra otras infecciones y de esta manera quedan cada vez más expuestos a enfermarse.

El virus del sida está presente en altos niveles en la sangre y en el semen de los individuos infectados y, por lo mismo, se transmite por contacto sexual (heterosexual u homosexual, oral, vaginal o anal), y a través del intercambio de sangre o de productos de la sangre.

Clasificación de los virus En función de los distintos parámetros que presentan, los virus se pueden clasificar  de la siguiente manera:

Virus ARN e ARN monocatenario:
Sin envoltura

Familia Leviviridae, cuya célula huésped es una bacteria, como el 1P501.

— Familia Astroviridae: infectan a vertebrados, como el astrovirus humano 1.

— Familia Barnaviridae: infectan a hongos, como el virus baciliforme de los hongos.

— Familia Picornaviridae: infectan a los animales invertebrados, como el virus de la parálisis del grillo, o a los vertebrados, como el virus de la polio en humanos y el virus de la hepatitis A.

Con envoltura

— Familia Rhabdoviridae: parasitan a las plantas, como el virus de la necrosis de la lechuga, o a los vertebrados, como el virus de la rabia.

— Familia Coronaviridae: parasitan a vertebrados, como el virus de la bronquitis infecciosa aviar.

— Familia Paramyxoviridae: parasitan a vertebrados, como el virus del sarampión.

— Familia Orthomyxoviridae: parasitan a vertebrados, como el virus de la gripe.

— Familia Retroviridae: parasitan a vertebrados, como el virus del cáncer y del sida.

— Familia Paramyxoviridae: parasitan a vertebrados, como el virus de la parotiditis.

— Familia Togaviridae: parasitan a vertebrados, como el virus de la rubéola y el de la fiebre amarilla.

ARN bicatenario
Sin envoltura

— Familia Reoviridae: infectan a las plantas, como el virus tumoral de las heridas; a los invertebrados, como el orvovirus de la lengua azul, o a los vertebrados, como el virus de la diarrea en niños.

— Familia Birnaviridae: infectan a vertebrados, como el virus infeccioso de la necrosis del páncreas.

Con envoltura

— Familia Cystoviridae: afectan a bacterias como el Phi 6.

Virus ADN ADN monocatenario
Sin envoltura

— Familia Inoviridae: infectan a las bacterias, como el MVL1 o el M13.

— Familia Microviridae: infectan a las bacterias, como el X174.

— Familia Geminiviridae: parasitan a las plantas, como el virus del estriado del maíz.

— Familia Parvoviridae: parasitan a los invertebradas, como el densovirus de Galleria que afecta a los artrópodos, o a los vertebrados, coma los virus de los perros y los cerdos.

ADN bicatenario
Sin envoltura

— Familia Myoviridae o bacteriófagos, como el virus P2 y el T2.

— Familia Corticoviridae o bacteriófagos, como el PM2.

— Familia Caulimoviridae: parasitan a las plantas, como el mosaico de la coliflor.

— Familia lridoviridae: infectan a los invertebrados, como el virus de iridiscente de típula, o a los vertebrados, como el virus 3 de la rana.

— Familia Adenoviridae: parasitan a los vertebrados, como el adenovirus humano.

— Familia Papovaviridae: parasitan a los vertebrados, como el que produce las verrugas.

Con envoltura

— Familia Plasmaviridae o bacteriofagos, como el MV-L2.

— Familia Poxviridae: parasitan a los invertebrados, como el virus de la Melolontha, o a los vertebrados, como el virus de la viruela.

Ciclo Vital de los virus
Una de las características más importantes de las virus es que no desarrollan un metabolismo propio. El virus usa material genético con la información suficiente para poder autoduplicarse gracias al metabolismo de la célula huésped que parasita. Los  más estudiados son los de los bacteriófagos: el ciclo lítico y el ciclo lisogénico.

En el ciclo lítico a de infección de una bacteria se pueden diferenciar varias fases:

1. Fijación a la superficie de la célula hospedadora. Gracias a receptores específicos en la pared bacteriana los virus se fijan a la superficie de ésta. En la cola del virus se localizan enzimas que actúan de manera selectiva debilitando los enlaces de las moléculas de la pared.

2. Penetración, El virus que se ha fijado a la pared bacteriana, contrae a vaina helicoidal e inyecta el material genético en el interior de La célula huésped. En esta penetración, los bacteriófagos o fagos dejan fuera de la célula la cápsida, la cola y la placa de fijación. En el caso de los virus que afectan a las células animales, entran intactos en la célula.

3. Replicación. El ADN bacteriano es degradado y se detiene el metabolismo celular. El virus codifica en su material genético una serie de enzimas que van a dirigir todos los procesos celulares hacia la síntesis de nuevas proteínas virales ya la replicación, del material genético viral.

4. La siguiente fase es el ensamblaje del material genético y de las proteínas para dar lugar a nuevas partícula .

5. Finalmente se produce la liberación de los nuevos virus gracias a la degradación de la pared bacteriana, mediante la acción de la lisozima. De medía, se generan cien nuevos virus.

En cuanto al ciclo lisogénico, existen formas de virus llamados atenuados, que gran su material genético en el de la célula huésped. De este modo, los genes mantienen reprimida su expresión, hasta que se produce la replicación del material genético de la célula huésped. El tipo de bacteria en el que se da este fenómeno se denomina lisogénica, y el virus no lítico recibe el nombre de profago.

Cuando las condiciones ambientales sean las adecuadas, el virus puede entrar en un ciclo lítico y liberarse y destruir la célula huésped. La bacteria que contiene un profago quedará inmune de la infección por virus de esa misma especie.

ALGO MAS SOBRE LOS VIRUS:

Se llama así al tipo más pequeño de microorganismo. Los virus son generalmente más chicos que las bacterias y pueden verse sólo con el microscopio electrónico. Su tamaño varía entre 10 y 300 millonésimas de milímetro. Son los agentes de muchas enfermedades. Se hallan en el límite entre los seres vivos y la materia inerte. No están formados por células y en muchos casos actúan como sustancias químicas inorgánicas. Por ejemplo, pueden formar cristales y permanecer estables, pero inertes, durante períodos largos. Pero, como organismos vivos, los virus pueden reproducirse y transmitir a su descendencia sus características. Sin embargo, dicha reproducción sólo puede realizarse dentro de las células vivas de otros organismos.

A diferencia de las bacterias, los virus no aumentan sus colonias en un medio de cultivo inorgánico, sino que deben cultivarse en laboratorio sobre tejidos vivos. Tanto plantas como animales son atacados por virus; pero en la mayoría de los casos, las enfermedades sólo pueden desarrollarse en grupos de individuos específicos. Por ejemplo, la peste de las aves de corral, de los cerdos, o el moquillo, son enfermedades virósicas de animales que los humanos no padecen. Pero la viruela, la rabia y la psitacosis (una enfermedad de las aves) pueden ser transmitidas al hombre.

Entre otras enfermedades virósicas humanas se cuentan el resfrío, la gripe, la poliomielitis, la varicela, la viruela, las paperas, el sarampión, el herpes zoster y la hepatitis. Algunos tipos de cáncer también son causados por virus. Las enfermedades virósicas de las plantas pueden destruirlos cultivos. Aún las bacterias son atacadas por ciertos virus, llamados bacteriófagos. Poco pueden hacer los médicos para combatir las enfermedades virósicas pues se han descubierto pocas drogas que sean efectivas contra los virus, tal como son los antibióticos y las sulfas contraías bacterias.

El organismo, sin embargo, reacciona contra la invasión virósica de dos maneras. 1) Produce anticuerpos que obligan a los virus a agruparse, lo que facilita su destrucción. 2) Produce una sustancia que se llama interferón, que interfiere el desplazamiento del virus de una célula a la otra.

A principios de 1970, los científicos sólo habían tenido un éxito moderado en el desarrollo artificial de la producción de interferón como método para combatir las enfermedades virósicas. La reacción anticuerpo, por otra parte, se ha usado durante mucho tiempo, como base de la vacunación. Cuando una persona ha tenido una enfermedad producida por virus, su cuerpo tiene la posibilidad de formar anticuerpos. Por este motivo, tales enfermedades atacan al organismo sólo una vez. Si se inyectan virus muertos o atenuados, el médico puede conferir al paciente una inmunidad artificial.

Serendipia en la Ciencia

Fuente Consultada:
Texto Basado en El Elixir de la Muerte Raúl A. Alzogaray (Ciencia que Ladra…) – Diccionario Enciclopédico Espasa Calpe

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Adelantos Tecnológicos Post Guerra Mundial

Historia Evolución Tecnológica Post Guerra Mundial
Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación.

Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950

Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo.

Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953.

En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. (imagen abajo)

auto escarabajo wolkwagen

En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.

antigui citroen 2cv

También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

vespa antigua

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles.

La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos.

Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

Resultado de imagen para primeros aviones comerciales historiaybiografias.com

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez.

En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura.

Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado.

Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines.

Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones.

En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional.

Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección.

transistor semiconductor

Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente.

Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia).

Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor.

El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio.

El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX.

El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania.

En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año.

En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento.

Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Historia de las Sulfamidas

Historia de las Sulfamidas

Cuando todavía no se habían descubierto los antibióticos, y mientras el mundo se aprestaba a la guerra, en la paz de los laboratorios hombres de ciencia trabajaban en procura de los elementos que aminoraran los males de la humanidad.

De pronto, en 1935, cuando ya se preveían las primeras chispas de otra conflagración, el universo recibió un anuncio sensacional: un sabio alemán había descubierto que un compuesto químico, utilizado hasta entonces como colorante, tenía extraordinarias propiedades terapéuticas y era de singular eficacia en la lucha contra la infección.

Poco después las sulfamidas llegaban a todos los rincones de la Tierra, y con su aplicación terminaban muchas enfermedades.

LAS SULFAMIDAS: EL descubrimiento sensacional que revolucionó la quimioterapia en el año 1935 tenía antecedentes. Si bien es cierto que ya en 1908, es decir, casi 30 años antes, se consiguió preparar algunas drogas maravillosas, los primeros compuestos sintetizados en esa época servían sólo como colorante, y nadie pensó en su extraordinario poder bactericida.

Después de 1930, se empezó a pensar en las propiedades terapéuticas de estos compuestos, hasta que en 1935, luego de algunos estudios preliminares, apareció el primer trabajo sobre las sulfamidas, que habrían de provocar una verdadera revolución en el campo terapéutico.

Bajo el título de «Contribución a la quimioterapia de las infecciones bacterianas», el sabio alemán Domagk explicaba cómo un producto, especie de derivado del azufre, contenía extraordinarias propiedades bactericidas. Aparecieron ese mismo año trabajos de otros autores, alemanes, franceses e ingleses, pero pasó más de un año sin que los médicos ni el público se hubieran dado cuenta de la enorme trascendencia del descubrimiento de Domagk.

En realidad fue la propaganda comercial la encargada de informar al mundo. Y a fines de 1936 y principios de 1937, las grandes fábricas de productos medicinales enviaban a los médicos de todo el orbe folletos explicativos de la nueva droga y sus derivados, que aparecían uno después de otro, en impresionante sucesión.

El mundo comenzó a enterarse de inesperadas curaciones y la gente, con el consabido entusiasmo, comentaba las más diversas historias sobre agonizantes salvados.

Lo importante es que, contra la neumonía, antes de 1935 no se conocían remedios muy eficaces. Los enfermos morían o se curaban según sus propias reservas. La meningitis sólo en muy raros casos no era mortal y lo mismo ocurría con las septicemias por cocos. Todo cambió radicalmente después de 1935, gracias a la sulfamida Los médicos la recomendaron para muchas enfermedades de carácter infeccioso.

La droga cobró tanta popularidad y el público le había tomado tan amplia confianza, que compraba los comprimidos y los ingería con cualquier pretexto. Se emplearon hasta contra la gripe y el resfrío sin prescripción médica y, como es natural, aparecieron los fracasos. Porque la droga descubierta por Domagk no tenía eficacia en todos los casos.

Las primeras sulfamidas eran parecidas al prontosil. Después, los químicos se encargaron de mejorarlas, tomando como guía lo que ocurre en nuestro organismo. Probado que el prontosil sufre modificaciones después de haber entrado en el organismo y es el nuevo compuesto el que tiene verdadera acción activa, se procura modificar la fórmula en los laboratorios. Es decir, que se trata de producir la sustancia ya preparada para ser inyectada con todo su poder bactericida.

Así se llega a la sulfanilamida, sustituto de todos los compuestos sulfamídicos existentes hasta entonces. Apareció más tarde, en 1938, en Inglaterra, la sulfapiridina y un año después se creó, en los Estados Unidos de Norteamérica, el sulfatiazol, droga que dominó todo el campo de las sulfamidas.

Paulatinamente, se fueron eliminando los efectos tóxicos del nuevo producto, que causaba trastornos en algunos organismos. En esa paciente tarea de laboratorio se logró, primero la sulfadiazina, más tarde la sulfaguanidina y después la sucinil-sulfa-ziatol o sulfasuxidina, desinfectante intestinal, la sulfametazina y la sulfamerizina.

¿Cómo actúan las sulfamidas? La droga no mata directamente a los gérmenes sino que les impide desarrollarse, paralizándolos.

El perfeccionamiento del medicamento después de conocerse su fórmula analítica, permitió elaborarlo como polvo blanco, cristalino, poco soluble en agua. Las investigaciones realizadas posteriormente permitieron comprobar que la sulfamida lograda de esta manera se absorbe a través de la mucosa digestiva y se difunde rápidamente por todo el organismo con una acción terapéutica muy enérgica contra algunas enfermedades infecciosas.

Los descubrimientos más recientes han revelado la manera cómo actúa la sulfamida y es que ella no permite la multiplicación de los gérmenes patógenos sustrayéndoles una sustancia que necesita el microorganismo para cumplir ese proceso. Asimila el ácido paraaminobenzoico en el ciclo metabólico de los microorganismos y con ello, pierde la capacidad de reproducirse. De esta manera queda detenida su acción patogénica. Nuevas investigaciones permitieron concretar otras drogas derivadas del núcleo químico principal de la sulfamida, pero algunas como la sulfanilamida pueden provocar manifestaciones tóxicas.

Los soldados aliados que participaron en la Segunda Guerra trataban sus heridas con sulfanilamida, un antibiótico artificial descubierto en 1932 por el médico alemán Gehrard Domagk, un discípulo de Paul Ehrlich que, como su maestro, buscaba una “bala mágica” para matar a las bacterias sin intoxicar a las personas.

Estas intoxicaciones se manifiestan, en el sistema digestivo, en la sangre con la producción de cianosis yagranolocitosis en la piel, en el hígado y en los riñones. Los últimos adelantos han permitido concretar un medicamento que puede ser administrado, sencillamente, por la vía oral en las afecciones causadas por los estreptococos por medio de comprimidos, pero también como polvo para el tratamiento de las heridas, úlceras, etc.

Últimamente se ha logrado sintetizar otro compuesto que tiene su origen en la sulfamida, pero con la ventaja que son menos tóxicas que la sulfanilamida y además, tienen una acción terapéutica más pronunciada: elsulfatiazol, la sulfadiacina, la sulfametacina.

Lamentablemente, las sulfamidas a igual que los antibióticos descubiertos posteriormente no tienen acción contra las dolencias producidas por virus. No manifiestan su poder curativo sobre estas entidades ultramicroscópicas y ello se debe, a que son moléculas proteínicas de tamaño sumamente pequeño, únicamente individualizadas a través del microscopio electrónico.

La industrialización masiva de los antibióticos y la introducción de la penicilina como droga activa vino a reforzar la actividad terapéutica de las sulfamidas que se pueden administrar en dosis adecuadas con los antibióticos en casos así prescriptos y mucho más cuando los gérmenes se transforman en antibióticos resistentes.

La alternancia entre ambas drogas resulta de eficacia para bloquear varias enfermedades infecciosas. En buena hora.

Fuente Consultada: 75° Aniversario de LA RAZÓN Historia Viva

Propiedades de las Proteínas Concepto y Clasificación

Propiedades de las Proteínas:Concepto y Clasificación

LAS PROTEÍNAS: Existe una gran preocupación por las proteínas en la alimentación. Y no es en vano, pues estos nutrientes presentan dos características peculiares: Forman la base de la estructura del organismo, siendo el componente más importante de los músculos, de la sangre, de la piel y de todos los órganos internos. Los huesos también están formados por proteínas de colágeno, sobre los que asientan el calcio y otros minerales. Un 17% del peso de nuestro cuerpo está formado por proteínas, es decir, de 10 a 12 kilos para un adulto normal. No se almacenan en el organismo constituyendo una reserva alimentaria, a diferencia de lo que ocurre con las grasas o los hidratos de carbono. Por ello, es necesario ingerirlas de forma constante a lo largo de la vida.

PROTEÍNAS: Las moléculas de hidratos de carbono y grasas, contienen solamente carbono, hidrógeno y oxígeno, pero las proteínas tienen, además, átomos de nitrógeno y algunas veces átomos de azufre y fósforo, y ocasionalmente hierro, yodo u otros elementos. Sus moléculas son las más complicadas de todas las sustancias, porque en cada una de ellas se encuentran grandes cantidades de átomos combinados y distribuidos de distinta manera.

Esto explica también, que el número de proteínas diferentes sea realmente asombroso, hasta el extremo que cada especie viviente tiene algunas que son características de ella y no se encuentran en ninguna otra.

La importancia de las proteínas reside en que, junto con el agua, forman las bases de toda la materia viviente o protoplasma. También forman parte del material hereditario llevado en los cromosomas de los núcleos celulares. Las enzimas, catalizadores que son muy necesarios para la vida, son proteínas. Las proteínas también se usan como depósitos alimenticios, particularmente en las semillas de muchos vegetales.

Puede compararse a las proteínas con los polisacáridos. ya que sus moléculas están formadas por uniones. Muchas moléculas de azúcar se unen para formar un polisacárido. Las unidades que componen las proteínas se llaman aminoácidos. El más simple de los aminoácidos es la glicina o ácido aminoacético. Su fórmula es: NH2CH2COOH.

El grupo NH2 , (grupo amino) es básico, y el hidrógeno del grupo carboxilo (—COOH) lo hace ácido. Las sustancias que pueden actuar como bases o como ácidos se llaman anfoteros.

El grupo básico amino de una molécula de aminoácido, puede reaccionar con el grupo ácido carboxilo de otra molécula para formar un dipéptido. De esta manera pueden unirse por sus extremos muchos aminoácidos, formando largas cadenas llamadas polipép-tidos y eventualmente moléculas proteicas. Cada molécula de proteína está formada por grandes cantidades de aminoácidos.

Se conocen alrededor de veinticinco aminoácidos. Dentro de ciertos límites, los animales pueden sintetizar (esto es, construir) algunos aminoácidos a partir de moléculas más simples. También pueden convertir algunos aminoácidos en otros. Sin embargo, una cantidad de aminoácidos no puede sintetizarse ni obtenerse, a partir de otros; tienen que estar presentes en la dieta y se llaman aminoácidos esenciales, para distinguirlos de los otros no esenciales.

Los aminoácidos son capaces de combinarse en variadas proporciones y puede repetirse muchas veces la misma serie de varios aminoácidos, o series levemente distintas, de manera tal que puedan formarse grandes cantidades de proteínas diferentes.

Las proteínas que se encuentran en los núcleos de las células se llaman nucleoproteínas. Se cree que los cromosomas están formados en su mayor parte por nucleoproteínas, y se ha demostrado que al gunos virus consisten en masas de nucleoproteínas. De este modo, ciertas nucleoproteínas deben considerarse como causantes de varias enfermedades infecciosas.

Se piensa también, que las nucleoproteínas de las células animales y vegetales, son las productoras de otras proteínas, quizá produciendo las enzimas capaces de unir ios aminoácidos necesarios. En el núcleo, moléculas de importancia (ácidos nucleicos) que están dispuestas en hilera sobre los cromosomas, contienen moléculas de azúcar. Los ácidos nucleicos (principalmente él ácido dexosirribonucleico o DNA), junto con ciertas proteínas, nucleoproteínas, forman las bases del material hereditario, cuyas «instrucciones» regulan todas las actividades de un organismo.

En otros post hemos visto, los hidratos de carbono (o carbohidratos), las grasas (o lípidos) y las proteínas, constituyen compuestos orgánicos que, en variables proporciones, se encuentran en el protoplasma de la. célula, tanto animal como vegetal.

Si bien estos compuestos del carbono son, además de las fuentes permanentes de energía, los proveedores de los elementos que se transforman en sustancia viva, no por esto, todo es material de restauración, ni combustible que se emplee de inmediato: gran parte es almacenado cómo reserva, y es así como las plantas guardan en sus diversos órganos sustancias amiláceas (almidón secundario), lípidos (en semillas, frutos y cortezas) y reservas proteicas (yemas y bulbos, y aleurona en semillas), y los animales, grasas (compuestas por glicerol y ácidos grasos) que acumulan como material energético que oportunamente empleará el organismo.

En el cuerpo humano, por ejemplo, las grasas dedepósito o lípidos de reserva, yacen, sobre todo, en el panículo adiposo subcutáneo (la mitad de la grasa total del organismo), envolviendo los ríñones, en el mesenterio y entre los espacios intermusculares. En los distintos animales, la composición, consistencia y proporción del tejido adiposo varía con el régimen alimenticio y con el clima La fauna circumpolar y muchos mamíferos marinos se protegen con una gruesa capa aislante de tocino (de más de cuarenta centímetros de espesor en las ballenas) que impide la pérdida de calor del cuerpo en el agua.

Los animales hibernantes (o de reposo invernal) reducen la frecuencia cardíaca y respiratoria, así como su metabolismo, y viven durante el período de letargo a expensas de su grasa de depósito. Las plantas almacenan materiales energéticos para los períodos de inactividad fotosintética: la reserva más común es el almidón (sustancia insoluble en agua) que se deposita en tallos y raíces, para ser transformado nuevamente en azúcares para su asimilación.

La semilla acumula alimento (proteínas, grasas, almidones) para el germen, en los tejidos nutricios (albumen) que acompañan al embrión, o en los cotiledones.

La plántula vivirá y se desarrollará merced a ese alimento hasta el momento en que funcionalmente pueda obtenerlo del medio en que vive. Entre los carbohidratos del grupo de los polisacáridos, hemos nombrado ya a la celulosa. La celulosa responde a la fórmula (C6H10O5) y constituye el tejido de sostén en la arquitectura de las plantas. (En las largas cadenas de una compleja molécula de celulosa, n puede representar millares.)

Forma la pared resistente de la célula vegetal y su estructura fibrosa le confiere enorme importancia industrial como material textil. (Su gran valor para la industria, reside en el hecho de que es insoluble en la mayoría de los solventes, aunque al ser atacada por ácidos, como el nítrico, acético o sulfúrico, origina esteres de fácil disolución en solventes orgánicos.).

La celulosa tiene una gran variedad de aplicaciones (sedas artificiales, papel, celuloide, explosivos, etc.), que abarcan desde los tejidos que el hombre viene utilizando desde los albores de su industria (por ejemplo, el algodón, muchos siglos antes de Cristo) hasta los plásticos, a los cuales los nuevos y constantes adelantos de la ciencia y de la técnica otorgan ilimitadas posibilidades.

Los compuestos orgánicos llamados proteínas, que constituyen los elementos fundamentales del pro-toplasma celular de los seres vivientes, se caracterizan por contener invariablemente nitrógeno, además del carbono, el hidrógeno y el oxígeno (y eventualmente, azufre, fósforo, hierro y yodo).

La molécula proteica (la mayor y más compleja de todos los elementos protoplasmáticos) cuya estructura no es cabalmente conocida, se sabe no obstante que está formada por unidades más simples, los aminoácidos (se han señalado alrededor de treinta y cinco aminoácidos distintos, veinticinco de los cuales fueron identificados por investigaciones posteriores). Los aminoácidos difieren en la estructura de sus fórmulas, aunque en todos ellos figure un grupo básico amino (NH2) y un grupo ácido (COOH).

Las proteínas representan elementos imprescindibles para la nutrición del organismo, pues además de suministrar energía, es a sus expensas que se reponen los materiales de desgaste, y se reparan tejidos, plasma sanguíneo, hemoglobina y la proteína orgánica que incesantemente es catabolizada. La deficiencia de proteínas en el organismo, se traduce, entre otros trastornos, en alteraciones funcionales y disminución de la resistencia a las infecciones y traumatismos.

Sólo ciertos aminoácidos pueden ser sintetizados por el organismo animal (los vegetales los sintetizan a todos). Se denominan entonces esenciales los aminoácidos que, siendo imprescindibles en la dieta del individuo, el organismo no puede sintetizarlos y debe procurárselos mediante la ingestión directa o indirecta de vegetales (el término esencial no implica preponderancia de un aminoácido sobre otro).

Las proteínas formadas solamente por aminoácidos, como son las que se encuentran en la leche (caseína), en la clara del huevo (albúmina), la queratina de las estructuras córneas de los animales (astas, pezuñas, pelo, uñas) se denominan simples.

Las que se componen de aminoácidos y otros complejos orgánicos, como la’ hemoglobina, las lipo-proteínas, las glucoproteínas y las nucleoproteínas, constituyen proteínas conjugadas. La importancia que el déficit proteico tiene para la salud, es hoy bien conocida por la medicina, de manera que es posible corregir los trastornos que esta carencia produce, mediante una adecuada dieta.

Repetidas experiencias indican que, en el hombre, es suficiente un gramo de proteína por kilogramo de peso y por día, tratando de que, la mayor proporción corresponda a proteínas de origen animal (leche, carne, visceras glandulares, huevo).

CONCEPTO Y CLASIFICACIÓN:
Se designa con el nombre de proteínas un conjunto de sustancias nitrogenadas muy complejas, que se encuentran formando parte de la materia viviente. Su importancia fundamental se debe al papel que desempeñan en la formación y funciones de la célula viva; hasta ahora, ésta constituye, precisamente, el único sistema capaz de sintetizarlas.

Las proteínas se encuentran profusamente en el proto-plasma celular, en los virus, en los genes, en los anticuerpos, etc. Están compuestas de carbono, hidrógeno, oxígeno y nitrógeno, en una proporción sensiblemente constcrnte; casi todas poseen, además, azufre, aunque este elemento no es indispensable.

Entre sus propiedades generales, merecen destacarse:
1°) tienen elevado peso molecular, que oscila entre 10.000 y 1.000.000 de unidades (la sal común o cloruro sódico, por ejemplo, no llega a 60 unidades);
2°) como consecuencia de su elevado peso molecular, forman soluciones coloidales con el agua;
3°) son muy inestables frente a los cambios de temperatura y acidez (pH);
4°) en solución, constituyen iones anfóteros, es decir, ,se comportan unas veces como ácidos y otras como bases; por eso actúan como dipolos frente a campos eléctricos.

Las proteínas están formadas, generalmente, por una serie de unidades más sencillas, que se denominan aminoácidos porque llevan un grupo amínico (-NH2), de carácter básico, y un grupo carboxilo (-COOH), de carácter ácido; de aquí las propiedades anfóteros de todas las proteínas. Los aminoácidos constituyen los eslabones de la gran molécula proteica. Las proteínas se pueden clasificar en sencillas (simples) y conjugadas. Las primeras son aquellas que por hidrólisis (escisión por el agua) rinden exclusivamente aminoácidos; las segundas son las que están formadas por un grupo proteico (una proteína sencilla) y un grupo prostético (un agrupan-tiento orgánico distinto de las proteínas).

En las proteínas sencillas se agrupa, a su vez, otra serie de ellas, clasificadas de acuerdo con sus solubilidades:
1°) albúminas, solubles en agua y soluciones salinas;
2°) globulinas, insoluoles en agua y solubles en soluciones salinas;
3°) prolaminas, insolubles en agua y en alcohol absoluto, pero solubles e» alcohol al 70 %;
4°) glutelinas, insolubles en disolventes neutros (agua, soluciones salinas, etc.) y solubles en ácidos y álcalis;
5°) escleroproteínas, insolubles en agua y no hidrolizables por las enzimos proteolíticas. Se dividen en colágenos, que, tratadas con agua hirviendo, dan gelatinas; elastinas, que no dan gelatinas y se encuentran en los tejidos elásticos; queratinas —existentes en los pelos, uñas y cuernos—, caracterizadas por su gran proporción de azufre,
6°) distónos, poseen carácter básico y se encuentran en los tejidos glandulares;
7°) protaminas, muy semejantes a las histonas, pero de peso molecular más bajo. No contienen azufre y, por tanto, poseen un elevado porcentaje de nitrógeno.

Las proteínas conjugadas se clasifican en varios grupos, según el grupo prostético que proporcionen: por hidrólisis:
1°) nucleoproteínas, en las que el grupo prostético es de ácido nucleico;
2°) mucoproteínas, que contienen aminoazúcares como grupo prostético;
3°) lipoproteínas, grupo prostético de fosfolípidos y esferoides;
4°) cramoproteínas, pigmentos coloreados, como la hemoglobina, la clorofila y las flavoproteínas;
5°) fosfoproteínas, que contienen, como grupo prostético, ácido fosfórico (caseína, vitelina, etc.); son solubles en álcalis;
6°) metolproteínas, que portan elementos metálicos (hierro, magnesio y cobre).
Esta clasificación no es rígida, puesto que algunas proteínas podrían incluirse en varios grupos; así, la hemoglobina, que está clasificada como cromoproteína por su color, podría estar incluida en las metolproteínas, porque contiene hierro.

Proteína vegetal versus proteína animal
Hasta hace poco se creía que los vegetarianos debían combinar diferentes fuentes de proteínas en cada comida para obtener los ocho aminoácidos que proporcionan proteínas completas. La razón es que la mayoría de las proteínas de origen vegetal (que no contienen los ocho aminoácidos esenciales) son incompletas. Los consejos más recientes, sin embargo, afirman que una dieta variada, que contenga una amplia gama de alimentos proteínicos vegetarianos, es suficiente, y es innecesario tener que preocuparse demasiado por consumir proteínas completas en cada comida.

No obstante, la Sociedad Vegetariana hace una excepción con los niños pequeños, a cuyos padres se les aconseja que utilicen el método de la combinación en cada comida para garantizar la ingesta adecuada de proteínas. Este método consiste en mezclar legumbres con cereales (por ejemplo, judías sobre una tostada, pita y puré de garbanzos, arroz y ensalada de judías), cereales con un producto lácteo (queso sobre una tostada, cereales y leche) o legumbres con féculas (patatas y lentejas guisadas).

Los estudios con vegetarianos adultos demuestran que éstos tienden a consumir menos proteínas que los no vegetarianos. Sin embargo, corno ya hemos visto en el primer capítulo, muchos de nosotros comemos más proteínas (en ocasiones, muchas más) de las que necesitamos.

¿Qué cantidad de proteínas deberíamos tomar?
Las autoridades sanitarias recomiendan que hasta un 15 % de las calorías de nuestra dieta provenga de las proteínas. La OMS sugiere entre un 10 y un 15 %, un intervalo con el que coincide la mayoría de profesionales de la nutrición. Una guía más precisa, según los especialistas, consiste en calcular 0,75 g de proteínas por día y kilogramo de peso, lo que se acerca al nivel del 10 % en la mayoría de los casos. Esta cifra es menor que la cantidad media que se toma en la actualidad (13,5 % aproximadamente); es decir, muchas personas toman más proteínas de las necesarias. Reducir ligeramente el consumo de proteínas permite el aporte de más calorías a partir de hidratos de carbono complejos, muy importantes para la salud. El cuadro superior muestra la ingesta recomendada de proteínas según el cálculo de 0,75 g por día y kilogramo.

¿Qué pasa si tomamos demasiadas proteínas?
Cada gramo de proteínas contiene 4 calorías. Todas las proteínas que consumimos y no son necesarias para las funciones anteriormente mencionadas pueden ser convertidas en glucosa y utilizadas como fuente de energía. Teniendo en cuenta que las fuentes animales tradicionales de proteínas son más caras que las fuentes de energía que proceden de los hidratos de carbono, es posible que su bolsillo también prefiera no gastar el dinero en proteínas que no necesita.

Por supuesto, si la ingesta media actual de proteínas se cifra en un 13,5 %, se deduce que algunas personas consumen una cantidad muy superior. Una dieta rica en proteínas (sobre todo, en proteínas de origen animal) ha sido relacionada con la desmineralización de los huesos: en la orina se excreta más calcio, por lo que las mujeres deben tener especial cuidado en reducir el consumo de proteínas a menos del 15 %. Se tienen claros indicios de que las dietas ricas en proteínas (en especial, las de origen animal) ejercen un efecto perjudicial a largo plazo en la función renal. Asimismo, se cree que el consumo elevado de proteínas puede estar relacionado con la hipertensión.

Por estas razones, las autoridades sanitarias recomiendan que el consumo diario de proteínas no sobrepase 1,5 g por kilogramo de peso corporal. Por ejemplo, para una mujer de 63,5 Kg. resulta una cifra de 95 g de proteínas por día, o menos de 20 % de las calorías totales diarias (lo que demuestra que, a pesar de lo esencial de las proteínas, sobrepasar muy ligeramente y de forma habitual las cantidades que se aconsejan puede ocasionar problemas).

Fuente Consultada:
Las Claves de la Ciencias de la Salud
Nuevo Estilo de Vida-Disfrútalo Tomo I
Los Alimentos Que Consumimos Judtih Wills

Importancia de los Hidratos de Carbono en la Alimentacion

Importancia de los Hidratos de Carbono en la Alimentación

Los hidratos de carbono, son también conocidos como glúcidos por su sabor dulce más o menos intenso (glúcido proviene de la raíz griega gluco, dulce).

Son la principal fuente de energía para todas las funciones del cuerpo, y proporcionan calorías de una forma rápida.

Químicamente, sus moléculas están formadas únicamente por átomos de carbono, hidrógeno y oxígeno. Según el tamaño de su molécula, los hidratos de carbono se clasifican en tres grupos: monosacáridos, disacárídos y polisacáridos. A los dos primeros se los llama también azúcares.

Composición química:
Monosacáridos

Están formados por una sola molécula, y pueden ser asimilados y absorbidos de forma directa y rápida por el organismo.

Los monosacáridos más comunes en la naturaleza son la glucosa o dextrosa, y la fructosa o levuloso. Ambas están formadas por los mismos átomos, y difieren tan solo por su distribución en la molécula. La glucosa y la fructosa se encuentran en todas las frutas, así como en la miel.

Disacáridos
Son hidratos de carbono formados por dos moléculas de monosacáridos. Para ser aprovechados por el organismo, los disacáridos se han de descomponer en sus dos moléculas elementales, tarea que llevan o cabo las enzimas durante el proceso de la digestión. Los disacáridos más comunes son:

• La sacarosa o azúcar de caña, que también se encuentra en la remolacha, el plátano, la piña tropical o ananás y en otras muchas frutas. Está formada por la conjunción de una molécula de glucosa y otra de fructosa, que al unirse pierden una molécula de agua:

glucosa + fructosa = sacarosa ± agua

• La maltosa, que se encuentra principalmente en la malta procedente de la cebada, y también en otros cereales. Está formada por dos moléculas de glucosa.

• La lactosa, que se encuentra en la leche de los mamíferos, en proporción de unos 40 gramos por litro en la leche de vaca, y unos 50 a 60 en la leche humana. Su molécula resulta de la combinación de dos monosacáridos: glucosa y galactosa.

Polisacáridos

Son hidratos de carbono complejos, cuya molécula está formada por la unión de muchos monosacáridos generalmente glucosa. Se encuentran sobre todo en los granos de los cereales (trigo, arroz, cebada, maíz etc.), así como en las raíces y tubérculos (patata, nabo, etc). Existen tres tipos de polisacáridos o hidratos de carbono complejos:

Almidón: Su molécula está formada por largas cadenas de moléculas de glucosa, unidas de una forma especial. Se encuentra en semillas, raíces, tubérculos, hojas y frutos, y es el principal componente de la harina.

El almidón lo producen únicamente los vegetales. Los animales lo aprovechan a base de separar, durante el proceso de la digestión, las diversas moléculas de glucosa que lo forman. Este proceso lo llevan a cabo unas enzimas llamadas amilasas, que son segregadas junto con la saliva y sobre todo en el páncreas. El almidón es la reserva de energía alimentaria más importante del mundo vegetal.

• Dextrinas: Son fragmentos de la molécula de almidón, que resultan de la acción de las amilasas. Estas enzimas rompen primeramente el almidón en pequeños fragmentos, antes de separar por completo todas las moléculas de glucosa que lo forman. Por ello se puede decir que las dextrinas son almidones predigeridos.

En el pan o en los cereales dextrinados, por ejemplo, se somete al almidón de la harina a la acción química de las amilasas, enzimas que rompen parcialmente las largas cadenas de moléculas de glucosa De esta forma, la digestión resulta más fácil, pues el aparato digestivo ya se encuentra con una parte del trabajo hecho.

Celulosa: Es la sustancia orgánica más abundante de la naturaleza. Este polisacárido se encuentra presente en todas las plantas, formando la estructura o fibra de sus tejidos: semillas, raíces, tallo, hojas, frutos, etcétera.

En las semillas o granos de los cereales, se encuentra en la capa que los recubre, conocida como salvado. En las raíces, hojas y en la fruta, se encuentra entremezclada con la estructura vegetal.

A la celulosa se le llama también fibra vegetal. Forma las paredes de las células vegetales, de donde viene su nombre de celulosa.

Combinada con la lignina, forma la madera de los árboles. Su molécula está formada por una larga cadena de moléculas de glucosa, pero unidas de tal forma, que nuestro aparato digestivo es incapaz de romperla, y por lo tanto, no la puede aprovechar.

Glucógeno: Es similar químicamente al almidón, pero lo producen los animales a partir de la glucosa que se libera durante la digestión, y que es absorbida y pasa a la sangre.

El glucógeno se almacena en el hígado, y constituye una reserva de energía que el organismo puede utilizar rápidamente, volviéndolo a convertir en glucosa, ante cualquier demanda de energía (esfuerzo físico o intelectual, por ejemplo).
El glucógeno se encuentra en los productos de origen animal (hígado y músculos) en pequeñas cantidades, siendo prácticamente nulo su valor alimenticio.

Objetivos de una dieta sana en cuanto a hidratos de carbono

Según las recomendaciones de la OMS (Organización Mundial de la Salud)’, una alimentación sana debe tender a:

1. Aumentar el consumo de hidratos de carbono complejos (hasta el 70% de la energía ingerida).

2. Reducir el consumo de hidratos de carbono simples refinados (azúcar blanco) tanto como resulte posible, hasta llegar a prescindir completamente de ellos (limite inferior — 0%).

Esto significa que deben consumirse abundantemente los siguientes alimentos:

• Cereales (trigo, cebada, avena, centeno, maíz, arroz, mijo, etc.): Son la principal fuente de hidratos de carbono complejos (almidón). Según la OMS, el consumo abundante de cereales (especialmente la avena), tiene efectos beneficiosos sobre la diabetes y sobre otros trastornos metabólicos, y disminuye el riesgo de padecer cáncer.(ver: Los Cereales)

Los cereales debieran volver a ser, como lo han sido durante toda la historia, la base de la alimentación humana. La mayor parte de la energía que necesitamos deberla provenir de ellos.

No ocurre así en la típica dieta occidental a base de carne, productos lácteos, conservas y alimentos refinados industrialmente, en la que la proporción de energía procedente de los hidratos de carbono complejos no llega al 50%. Los expertos en nutrición aconsejan un uso abundante de cereales, tanto en el desayuno (en forma de pan, de copos o hervidos en papilla, etc.) como en la comida principal del mediodía.

Los cereales auténticamente integrales tienen además la ventaja de incluir de germen del grano (rico en vitaminas B y E, y en aminoácidos esenciales), y su cubierta o salvado (rica en fibra vegetal).

Tubérculos (patatas o papas, por ejemplo) y leguminosas, también ricas en hidratos de carbono complejos (almidón), además de ser una buena fuente de proteínas de gran valor biológico.
La dieta occidental típica, a base de carne, leche y sus derivados, es muy pobre en fibra vegetal (entre 3 y 10 gramos diarios). En cambio, la dieta a base de cereales, hortalizas y fruta, suple generosamente las necesidades diarias de fibra vegetal, según las recomendaciones de la OMS.

Debe reducirse al mínimo el consumo de dulces, pasteles, bombones y refrescos ricos en azúcar. Según la OMS, el consumo de azúcar refinado (blanco), proporciona energía sin nutrientes; es decir, aporta calorías, pero no los minerales y vitaminas necesarios para la metabolización de ese azúcar.

En consecuencia, provoca un empobrecimiento en dichas sustancias. En cambio, el azúcar sin refinar (moreno), la miel, y sobre todo, los azúcares naturales contenidos en la fruta, van acompañados de abundantes vitaminas y minerales, que permiten su buen aprovechamiento metabólico.

Digestión y utilización de los hidratos de carbono

Los hidratos de carbono complejos se transforman en glucosa en el intestino; pero a diferencia de lo que ocurre con los azúcares simples, la transformación en glucosa se produce lentamente (mientras que dura la digestión), y su paso a la sangre se produce escalonadamente.

Por el contrario, los azúcares simples (mono o disacáridos) pasan rápidamente a la sangre, con lo que aumenta bruscamente el nivel de glucosa. Esto provoca una respuesta intensa del páncreas, que debe segregar rápidamente insulina para poder metabolizar toda esa glucosa. Y como resultado de ello, se produce un nuevo descenso de glucosa en sangre (crisis de hipoglucemia).

Esas oscilaciones bruscas en el nivel de glucosa provocado por el consumo de dulces, pasteles, bombones, etcétera, obliga al páncreas, y al conjunto del organismo, a realizar un gran esfuerzo metabólico, predisponiendo para enfermedades como la diabetes o la arteriosclerosis.

No así los hidratos de carbono complejos (almidón de los cereales, tubérculos y legumbres), que al digerirse y pasar lentamente a la sangre, mantienen un nivel constante de glucosa durante varias horas, y permiten un mejor funcionamiento del páncreas.

Ello explica, además, el hecho de que después de desayunar un dulce, o la típica tostada con mermelada, se vuelva a tener hambre al poco tiempo; mientras que después de un desayuno a base cereales integrales, no se tiene hambre en toda la mañana.

Una dieta a base de cereales, frutas y verduras y hortalizas, cumple a plena satisfacción todas las necesidades de hidratos de carbono. Además, aporta especialmente los hidratos de carbono más saludables: el almidón y la fibra vegetal.

La celulosa o fibra vegetal es un tipo especial de hidrato de carbono que no se absorbe (no pasa del intestino a la sangre), y por lo tanto el organismo no la puede utilizar como fuente de energía. Toda la que se ingiere, es expulsada con las heces. Esto determinó que hasta hace unas décadas, no se le concediera ninguna importancia fisiológica. Pero ahora comprendemos la importancia de esa fibra vegetal aparentemente inútil: Actúa como una auténtica escoba en el intestino, absorbiendo toxinas y arrastrando sustancias nocivas como los ácidos biliares precursores del colesterol, entre otras, hasta formar las heces.

La celulosa o fibra vegetal se hincha con el agua, aumentando varias veces su volumen. De esta forma da consistencia a las heces, y facilita su tránsito por el colon hasta su expulsión por el recto. Cuando la dieta contiene poca celulosa por ser pobre en fruta, cereales integrales y hortalizas. las heces son duras, resecas y concentradas, con lo que obligan al intestino a realizar grandes esfuerzos para eliminadas. Esto causa o agrava numerosos trastornos, como los divertículos intestinales, las hemorroides y hasta el cáncer de colon.

La celulosa (fibra vegetal), es exclusiva del reino vegetal. Ningún alimento animal (carne, pescado, leche o huevos) contiene celulosa. Así pues, aunque no proporciona energía, ni pasa a la sangre, es un componente imprescindible en una dieta sana y equilibrada, ya que evita el estreñimiento y baja el colesterol.

La Glucosa: El combustible universal

La glucosa, de fórmula química C6H1206, es el principal combustible de nuestro organismo. Puede decirse que desde el punto de vista energético, los seres humanos somos, biológicamente, un motor que funciona a base de glucosa.

Todos los hidratos de carbono de los alimentos se transforman en el tubo digestivo en glucosa, que pasa a la sangre y es llevada a todas las células de nuestro organismo. Pero su depósito principal está en el hígado, que actúa como almacén regulador. La glucosa se almacena en esta glándula en forma de glucógeno, polisacárido de reserva, que se convierte de nuevo en glucosa cuando las necesidades del cuerpo lo requieren. De esta forma, el hígado se encarga de mantener un nivel de glucosa en la sangre bastante constante: aproximadamente un gramo por cada litro de sangre (100 mg/loo mi).

En las células de los músculos también se almacena una pequeña cantidad de glucosa en forma de glucógeno, que se transforma de nuevo en glucosa cuando se realiza cualquier actividad física.

Cuando el nivel de glucosa en la sangre baja, y las reservas del hígado o de los músculos (que duran solo para unas horas), no consiguen subirlo, por estar ya agotadas, se produce una situación de hipoglucemia. Si esto ocurre de forma brusca, sin dar tiempo a que el organismo busque otras reservas de energía, se producen llamativos síntomas, como sensación de mareo, hambre intensa, pérdida de fuerza e incluso pérdida de conocimiento con caída al suelo, fenómeno que se conoce como lipotimia o desmayo.

La glucosa es transportada con la sangre a todas las células del cuerpo. Gracias a la energía que proporciona cuando se quema, combinándose con el oxigeno en el interior de las células, la glucosa hace que todo el organismo funcione: que los músculos se contraigan, que se produzca calor en el cuerpo, y que el cerebro desarrolle sus funciones, especialmente el pensamiento. De hecho, este maravilloso órgano necesita, para funcionar correctamente, que se le suministren dos sustancias de forma interrumpida: la glucosa y el oxígeno. Cada día nuestro cerebro consume unos 140 gramos de glucosa.

Para que la glucosa pueda penetrar en el interior de las células y ser allí quemada, produciendo energía, necesita de la acción de la hormona insulina. Cuando no hay suficiente insulina en la sangre, porque el páncreas no la produce, la glucosa se acumula en la sangre, aumentando su nivel en ella, en lugar de entrar en las células para ser utilizada.

Una vez en las células, la glucosa necesita vitaminas del grupo B para poderse metabolizar, es decir, para poderse quemar y producir energía. Por ello, al consumir azúcar refinado (sacarosa prácticamente pura), el organismo tiene que utilizar sus propias reservas de vitaminas 3 para poder metabolizarlo, con el riesgo de agotarlas. El azúcar refinado es un alimento muy pobre: solo aporta calorías, pero no las sustancias necesarias para poderlas aprovechar.

PARA SABER MAS…
Hidratos de carbono: fuente de energía

La necesidad más constante y básica del cuerpo (aparte del agua) es la energía. Se requiere energía para respirar, para moverse, para funcionar, para ponerse en marcha, para reparar y para crecer. Como las máquinas, precisamos una fuente externa de energía, pero nuestro combustible debe provenir de lo que comemos y bebemos.

Esa energía se mide en kilocalorías (popularmente denominadas calorías). Cuando gastamos energía, quemamos calorías, y cuando comemos, las ingerimos. La cantidad de energía o calorías que nuestro cuerpo necesita en un día depende de la estatura, la edad, la proporción de musculatura con respecto a las grasas, el nivel de actividad y muchos otros factores.

Las necesidades medias aproximadas (NMA) para los niños, los adolescentes y los ancianos aparecen en el capítulo tres. La energía también se mide, en ocasiones, en kilojulios (1 kilocaloría = 4,18 kilojulios).

NECESIDADES DIARIAS MEDIAS DE ENERGÍA E HIDRATOS DE UN ADULTO

   Calorías/DíaH.de C./Día Máximo Azúcar/Día (g.)
Mujeres19-50194025852
 51-59190025350
Hombres19-59255034068

Para mantener un peso adecuado y estable, el aporte de energía (alimento) y el gasto energético deben estar equilibrados. La falta de aporte y el exceso de gasto pueden provocar pérdida de peso; el exceso de comida y la ausencia de gasto dan lugar a un aumento de peso (debido al exceso de calorías, que se convierten en grasa corporal) y a una posible obesidad.

Todos los alimentos y las bebidas que contienen calorías aportan energía en forma de hidratos de carbono, grasas, proteínas o alcohol. Apenas existen alimentos que contengan sólo uno de esos elementos (las principales excepciones son los aceites, que únicamente contienen grasa, y el azúcar, que se compone exclusivamente de hidratos de carbono). La mayoría de los alimentos constituyen una mezcla de mas de un elemento (además de las combinaciones de vitaminas y minerales).

Por ejemplo, el pan es rico en hidratos de carbono, pero también lleva proteínas y grasas; la leche entera contiene hidratos de carbono, grasas y proteínas en cantidades razonables; la carne es una mezcla de proteínas y grasas, etc.

Aunque todos los tipos de calorías (ya provengan de hidratos de carbono, grasas, proteínas o alcohol) aportan energía, la mayor parte de la energía aportada debe proceder de los hidratos de carbono. El cuadro siguiente muestra la proporción en que cada uno de los nutrientes que aportan energía debería estar presente en una dieta sana e incluye un 5 % de alcohol (fuente de energía en la mayoría de dietas).

 

Grasas 33-35%
Proteínas Hasta un 15%
Hidratos de Carbono 47-50%
Alcohol 0-5%

Algunos países recomiendan niveles de hidratos de carbono más elevados que otros (por ejemplo, Estados Unidos, 55 %; Suecia, 60 %), y la Organización Mundial de la Salud (OMS) afirma que entre el 55 y el 75 % de nuestra ingesta total de calorías debería provenir de los hidratos de carbono. Sin duda, niveles de hasta el 60 % de las calorías diarias totales resultan buenos para la salud y son asequibles, siempre y cuando las grasas y las proteínas se reduzcan.

Existen dos tipos principales de hidratos de carbono: las féculas y los azúcares. En la actualidad, alrededor del 60 % de los hidratos de carbono que consumimos son féculas, y aproximadamente el 40 % provienen de azúcares. Los alimentos con fécula proceden de las plantas: cereales para el desayuno, pan, patatas, legumbres, pasta y arroz. Las verduras también contienen féculas, aunque en cantidades variables. Las frutas, en cambio, carecen de ese elemento (a excepción de los plátanos). Los hidratos de carbono de estos alimentos se denominan polisacáridos y se conocen como hidratos de carbono complejos.

Los azúcares intrínsecos, como los que se encuentran en las frutas (los hidratos de carbono de casi todas las frutas son azúcares) y las verduras (por lo general, una mezcla de azúcares y féculas), forman parte de la estructura celular del alimento. Los azúcares extrínsecos (en ocasiones, llamados libres), como los del azúcar de mesa, la miel, los zumos de frutas, los pasteles, las galletas, la bollería, etc., no forman parte de la estructura celular del alimento, sino que son refinados, privados de la fibra, o bien se añaden durante el proceso de fabricación. La leche contiene un azúcar extrínseco, la lactosa, que no suele agruparse con los otros azúcares extrínsecos en términos de nutrición.

Los hidratos de carbono complejos y los azúcares intrínsecos deben formar el grueso de una dieta sana. La OMS aconseja que al menos el 50 % de las calorías de la dieta provengan de hidratos de carbono complejos. Se trata de los alimentos vegetales que no sólo aportan al cuerpo una forma de energía fácilmente convertible, sino también toda una gama de otros nutrientes vitales. Además, apenas presentan inconvenientes para a salud y, por tanto, pueden llenar el hueco energético que se produce cuando reducimos el consumo de grasas

Los hidratos de carbono también evitan que las proteínas se conviertan en energía, lo que puede ser importante si las necesidades proteicas son elevadas o si el consumo es bajo.

Cuanto más puros sean los hidratos de carbono que se consuman, mejor para la salud. Las dietas pobres en hidratos de carbono y ricas en grasas están relacionadas con el aumento del riesgo de diversas enfermedades, incluidas las cardíacas, algunos tipos de cáncer (en especial, el de colon), e! estreñimiento y la obesidad.

Los alimentos sin refinar o apenas refinados, como el arroz y el pan integrales, ‘as frutas y las verduras frescas, las legumbres, los frutos secos y las semillas, contienen todos o casi todos los nutrientes originales (fibra, vitaminas, minerales y otros de reciente descubrimiento, unos interesantes compuestos denominados fitoquímicos. Los hidratos de carbono refinados, como el arroz, la pasta y la harina, contienen esos elementos en menor proporción, aunque su consumo resulta recomendable.

Muchos productos elaborados con féculas, como la pastelería industrial y las galletas, han perdido gran parte de las fibras, las vitaminas, los minerales y los compuestos fitoquímicos naturales. Además, pueden contener elevados niveles de los tipos menos sanos de grasas y azúcares extrínsecos y, por tanto, es recomendable reducir su consumo de forma drástica.

Un informe reciente de la OMS apunta que los azúcares extrínsecos pueden consumirse con moderación como parte de una dieta sana, pero siempre de forma moderada, ya que el consumo elevado de azúcares extrínsecos no lácteos constituye una de las principales causas de caries y pérdida de piezas dentales.

Otro dato importante es que una dieta rica en alimentos grasos y azucarados, como los aperitivos, los dulces y los pasteles, puede carecer de nutrientes esenciales y aporta elevadas cantidades de calorías. Muchos expertos coinciden en que el creciente consumo de esos tipos de alimentos está relacionado con los niveles (también en aumento) de sobrepeso y obesidad.

Resulta muy fácil consumir mucho más azúcar extrínseco del que se imagina. Para alcanzar el límite del 10 % total de energía (52 g de azúcar), basta con que una mujer tome sólo una pequeña rebanada de bizcocho (24 g de azúcar) y una lata de refresco de cola (36 g de azúcar), o por poner otro ejemplo, dos cafés endulzados con dos cucharadas de azúcar cada uno (20 g de azúcar), más dos galletas digestivas cubiertas de chocolate (20 g de azúcar) y un vaso de sidra dulce (12 g de azúcar).