Historia de la Cirugía

Primeras Cirugias de la Historia Operaciones Quirurgicas

HISTORIA Y EVOLUCIÓN DE LAS PRIMERAS OPERACIONES QUIRURGICAS

La medicina, de un modo u otro, es una profesión casi tan antigua como el hombre mismo. En cuanto a la cirugía, que es la rama de la medicina que se ocupa particularmente del tratamiento manual de las lesiones y de las enfermedades, viene siendo practicada desde hace varios siglos, aunque sólo desde el diecinueve comienza a ser considerada como algo más que un aspecto inferior de la profesión médica. Los «físicos», con sus ensalmos y brebajes, fueron hombres importantes en la medicina primitiva.

Excavaciones realizadas en la antigua ciudad de Ur han sacado a luz varios cuchillos de bronce, que parecen haber sido instrumentos quirúrgicos. Los arqueólogos han descubierto varios cráneos pertenecientes a las edades de la piedra y del bronce, donde se pueden ver incisiones perfectamente redondas.

Estas incisiones fueron hechas en vida del paciente, pues hay prueba de su curación. Prácticas análogas se realizan todavía entre algunas tribus primitivas, para «aliviar» la epilepsia, la locura, etc.

Los griegos tuvieron grandes conocimientos quirúrgicos; los dos médicos más famosos fueron Esculapio e Hipócrates.

Los romanos también tuvieron sus cirujanos; el más notable fue Galeno (de origen griego). Muchos de sus trabajos estaban dedicados a las lesiones que se producían en las luchas de gladiadores. Galeno hacía distinciones entre el músculo, el nervio y el tendón y describió técnicas para ligar los tendones rotos.

Además, trató las enfermedades intestinales e hizo extirpaciones de amígdalas. Muchos de los supuestos instrumentos quirúrgicos encontrados en las ruinas de Pompeya eran de bronce, y algunos, de acero. Desgraciadamente, durante siglos la cirugía tuvo muy pocos progresos.

Hay referencias de varias operaciones para extirpaciones de excrecencias y de piedras o cálculos, pero muy pocos fueron los conocimientos acumulados.

Una de las primeras obras ilustradas sobre cirugía fue escrita por un árabe llamado Albucasis, que vivió desde el año 936 al 1013 de nuestra era. Habla acerca de los instrumentos, de operaciones para la extracción de cálculos (por ejemplo, en la vejiga) y sobre el tratamiento de las fracturas y dislocaciones.

A través de la Edad Media, los cirujanos adquirieron gran experiencia en las heridas de guerra y sus modos de tratarlas, pero no pudo desarrollarse un avance general de esta ciencia, porque estaba prohibida la disección de cadáveres.

De hecho, no pudieron perfeccionar sus conocimientos. Uno de los más grandes cirujanos de la época fue el francés Guy de Chauliat (1300-1367).

Su libro titulado Chirugia Magna llegó a significar un avance cuando se imprimió, por fin, en 1478.

Preconizaba el uso de bragueros para curar las hernias, aunque también desarrolló una técnica operatoria para tratar esta enfermedad. Se cree que fue Chauliat el primero en tratar las fracturas mediante métodos de tensión (esto es, usando grandes pesas suspendidas de cuerdas, para mantener el miembro extendido en correcta posición).

También a él se debió el método de colgar una cuerda a cierta altura sobre los pacientes, para que éstos, agarrándose a ella, pudieran moverse más fácilmente. Por otra parte, Chauliat insistió en la importancia que el conocimiento de la anatomía tiene para la cirugía.

La invención de la pólvora trajo consigo la producción de heridas más profundas y graves, lo que tuvo una gran influencia en la cirugía. Fueron aumentando los conocimientos acerca del cuerpo humano y de cómo había que tratar varios tipos de heridas.

El Renacimiento dio en Europa un nuevo impulso al estudio de la anatomía y, con él, al consiguiente desarrollo de la cirugía.

Ambroise Paré (1510-90) fue uno de los grandes cirujanos de este período. Estuvo en el ejército y realizó una gran labor entre los heridos. Ideó nuevos procedimientos para curar las heridas y también reemplazó la cauterización (es decir, la quemadura) por las ligazones (ataduras), para evitar la hemorragia. Asimismo, proyectó miembros artificiales.

Durante los siglos XVI, XVII y XVIII , los conocimientos anatómicos   aumentaron   enormemente.   William Harvey   demostró   cómo se realizaba el funcionamiento del corazón y la circulación de la sangre, y Malpighi constató cómo la sangre pasaba de las arterias a las venas, por medio de numerosos y diminutos vasos capilares. Dos importantes cirujanos del siglo xviii fueron William Cheselden y John Hunter.

Primeros Quirófanos Parecido a los de Hoy

El primero se hizo famoso por sus operaciones para la extracción de cálculos en la vejiga, aunque también fue cirujano general y profesor. John Hunter fue investigador, además de cirujano. Como consecuencia de ciertos experimentos realizados con un ciervo descubrió que, cuando se liga una arteria, otras pequeñas arterias pueden llegar a desarrollarse para desempeñar la función de la principal. El primer paciente humano a quien sometió a tal operación tenía un tumor en una arteria de la rodilla, estado que anteriormente requería una amputación. El resultado fue un completo éxito.

Contrariamente a todos estos progresos en el estudio de la anatomía y de la técnica quirúrgica, las operaciones estaban limitadas por las angustias y dolores que se causaban a los pacientes, puesto que por entonces no había anestesia. Los cirujanos no eran estimados por su habilidad, sino por su velocidad en realizar la operación, y los mejores fueron capaces de amputar una pierna en menos de un minuto.

En 1800, se fundó el Royal College of Surgeons (Real Colegio de Cirujanos) y la cirugía se elevó a un plano más alto dentro del campo de la medicina. Empezaron a funcionar los grandes hospitales y la enseñanza de la anatomía fue incrementándose.

En 1799, Humphrey Davy descubrió que el óxido nitroso (gas hilarante) podía aliviar el dolor, y sugirió su uso en odontología. Pasaron algunos años, sin embargo, antes que un dentista estadounidense, llamado Wells, lo usase para la primera extracción indolora (1844). Usado solo, el óxido nitroso no resulta muy apropiado, por lo que pronto fueron probados otros compuestos. El éter y el cloroformo se utilizaron ampliamente.

La primera operación con anestesia de éter fue realizada en América, en 1846, y en el mismo año Robert Listón llevó a cabo en Londres una amputación, en un paciente sometido al gas del éter. James Simpson, cirujano de Edimburgo y pro;ej;r de obstetricia, decidió que el éter no era aconsejable en dicha rama y buscó otra sustancia. La encontró en el cloroformo, que le proporcionó a él y a sus amigos un buen número de noches felices. Enfrentándose con la oposición religiosa, empezó a usar el cloroformo para ayudar a sus pacientes. La oposición, sin embargo, cesó cuando trató con éxito a la reina Victoria en el nacimiento del príncipe Leopoldo.

Desde estos simples comienzos, el estudio de los anestésicos fue desarrollándose hasta hoy, que se usa una gran cantidad de ellos. Los nuevos compuestos evitan, en general, los desagradables efectos posteriores y son menos peligrosos. Muchos pueden ser administrados mediante una simple inyección y relajan completamente todos los músculos.

Este hecho es muy importante, porque, de otro modo, las «contracciones musculares» del paciente dificultan la labor del cirujano. Las anestesias locales son ampliamente usadas en odontología y para algunas operaciones abdominales. La cocaína, y otras sustancias análogas, al ser inyectadas paralizan los nervios de la región. No puede sentirse dolor mientras los nervios estén así afectados.

La aparición de los anestésicos ofreció nuevas posibilidades para un gran número de operaciones difíciles, que requerían mucho tiempo para practicarlas.. Esto no constituyó, sin embargo, el final de los problemas del cirujano. Aproximadamente, la mitad de las operaciones terminaba de un modo fatal para el paciente. Toda operación torácica o abdominal significaba una muerte casi segura. Esto no era debido a una deficiente cirugía o falta de cuidado, sino a las infecciones subsecuentes a la herida.

Incluso a tan ilustres cirujanos como Robert Listón y James Syme, se les morían, por esta causa, muchos de sus pacientes. Las secuelas de las operaciones (gangrena, descomposición y pus) eran consideradas etapas obligadas de la curación.

Aunque algunos cirujanos griegos aconsejaron la conveniencia de lavarse las manos antes de intervenir a los pacientes, este aspecto fue olvidado y la mayoría de los médicos usaban la chaqueta manchada de sangre. Cuanto mayor fuera la cantidad de sangre de la chaqueta, mayor era la reputación del cirujano. Para superar las calamidades de la sepsia (infección producida por gérmenes) tenemos que llegar a Joseph Lister (1827-1912), un cirujano muy escrupuloso y eminente.

Desanimado por las vidas perdidas en los procesos postoperatorios, incluso de las más pequeñas intervenciones, se propuso averiguar la causa. Habiendo sido informado acerca de los trabajos de Pasteur sobre las fermentaciones, Lister dedujo que las heridas infectadas y la putrefacción eran debidas a los microbios existentes en el aire. Hoy sabemos que estaba en lo cierto.

Buscó algo con qué destruir los gérmenes y, durante un tiempo, usó preparaciones de ácido fénico. Trataba las heridas, los vendajes y todos los instrumentos con fenol para matar los gérmenes. Estos procedimientos antisépticos (contra los gérmenes) están reemplazados hoy por los sistemas asépticos (es decir, sin gérmenes), donde todas las cosas usadas en el campo operatorio se hallan esterilizadas (libres de gérmenes). De cualquier modo, fue a Lister a quien le cupo la honra de demostrar que la sepsia podía ser evitada.

El escenario quedaba ya preparado para posteriores avances en la cirugía y en la extensión del campo de las operaciones. Lister demostró el éxito de sus métodos y se desarrolló la cirugía conservadora (es decir, que cura los miembros en lugar de amputarlos) . Se pudo, entonces, abrir la cavidad corporal, incluso el cerebro, con pequeño riesgo, y continuaron apareciendo nuevas técnicas e instrumentales.

Las transfusiones de sangre y el descubrimiento de los antibióticos ayudaron al cirujano, y hoy pueden ser llevadas a cabo operaciones muy largas con bastante seguridad. Durante la segunda guerra mundial se han realizado avances espectaculares en el tratamiento de las heridas, principalmente debidos a los antibióticos y a la cirugía plástica.

Con todos los progresos de la anestesia y de las técnicas operatorias, el corazón seguía siendo intocable aún. Interrumpir la circulación de la sangre durante un minuto suponía un daño irreparable para el cerebro. Sin embargo, hace pocos años, se descubrió que, si se enfría el cuerpo por debajo de la temperatura normal, las necesidades de oxígeno disminuyen. Enfriando el cuerpo (hipotermia) por inmersión en agua helada o haciendo circular la sangre a través de uña máquina refrigeradora, se han realizado operaciones hasta de 45 minutos de duración. Ahora son posibles operaciones más largas, usando el corazón-pulmón artificial.

Esta máquina realiza la misión del corazón y de los pulmones, mientras aquél o alguna de las arterias principales están siendo intervenidas. El éxito de las operaciones a corazón abierto se debe al funcionamiento de estas máquinas.

Actualmente todas estas técnicas han sido superadas por la exponencial evolución tecno-informática del siglo XX, pero no hay dudas que la escalera al éxito de hoy, son aquellas grandes ideas y métodos con que se realizaron las primeras intervenciones quirúrgicas, las cuales, muchos de ellas no tuvieron finales felices, de todas maneras aquellos transplantes que parecían imposible, pudieron hacerse y abrir una gran esperanza de vida a millones de pacientes.

Fuente Consultada:
Revista TECNIRAMA N° 91 Enciclopedia de la Ciencia y la Tecnología -Historia de las Cirugías –

Ver: Historia de la Medicina

1-Medicina Primeras Civilizaciones

2-La Medicina en la Antiguedad

3-La Medicina en Grecia Antigua

4-La Medicina en Roma Antigua

5-La Medicina en la Edad Media

6-La Medica en el Renacimiento

7-La Medicina en la Época Colonial Americana

8-Los Microorganismos

9-Historia de las Cirugías

10-Historia de la Medicina

Historia del Transistor Sus Inventores y Aplicaciones

Historia del Transistor ,Inventores y Aplicaciones

DEFINICION: El TRANSISTOR  es un dispositivo electrónico constituido por un pequeño bloque de materia semiconductora que cuenta con tres electrodos emisor, colector y base. En su fabricación se usa germanio o silicio como elemento fundamental. Se utiliza para rectificar y amplificar los impulsos eléctricos y sustituye ventajosamente a la antigua válvula eléctronica.

esquema de un transistor

Todos los fenómenos en que intervienen electrones quedan englobados dentro de la denominación Electrónica, si bien, a menudo, ésta queda reducida al estudio de los tubos de vacío. Con las válvulas electrónicas, tal como apuntábamos al hablar de las primeras computadoras , la vida actual ha cambiado. Disponemos de radio, televisión, calculadoras, celualres, robots, etc., y cada día se nos ofrece nuevas sorpresas.

Para tener una conducción apreciable de electricidad en un vacío elevado es necesario disponer de iones. El procedimiento más generalizado para la producción de estos iones es la emisión termoiónica.

En todo conductor metálico, además de las propias moléculas, existen electrones libres. Si se aumenta la temperatura del conductor, estos electrones adquieren velocidades suficientes para escapar del metal, fenómeno que depende de la naturaleza de éste y del estado de su superficie.

Alrededor del conductor se forma una «nube» de electrones que rechaza los nuevos electrones emitidos por el metal, que a su vez son atraídos por éste, provocando el cese de la emisión.

Los extraordinarios progresos experimentados en el campo científico repercutieron en el terreno de la tecnología con inventos que, en algunos aspectos, han ido transformando la vida del ser humano. Una diminuta lámina de cristal de germanio, con dos electrodos puntiformes, que integran un transistor, se constituyó en un verdadero corazón de múltiples aparatos, desde pequeñísimas prótesis para sordos, hasta los que rigen la vida de los satélites.

Imágenes de los primeros transistores

imagenes de los primeros transistores

publicidad antigua valvula electronica

Publicidad antigua valvula electronica

TRANSISTORES. La corriente de electrones que fluye en el interior de un tubo o válvula se ha visto que también se produce a través de ciertos sólidos como el metal llamado germanio. Con la particularidad de que no requieren placa, rejilla, calefacción del cátodo ni vacío alguno.

Amplían muchísimo la corriente y pueden funcionar con baterías de una cienmilésima de vatio. Su vida es larga y su tamaño es muy pequeño. Se conocen con el nombre de transistores. Su defecto más acusado consiste en que no trabajan bien con altas frecuencias.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

HISTORIA E INVENTORES: Tres eminentes investigadores: John Bordeen -premio Nobel-, Walter Brattain y William Shackley, dieron nacimiento al transistor, que por su reducido tamaño, su bajo precio y su economía, ha resultado insustituible en los sistemas de telecomunicaciones, tele-mediciones, etc.

Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

 

inventores del transistor

Bardeen, Shockley y Brattain, inventores del transistor

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Entre todos los avances e inventos de la postguerra podría mencionarse en el campo de la electrónica,  uno de los descubrimientos que revolucionó al mundo, constituido, en un principio, por una diminuta lámina de cristal de germanio, con dos electrodos metálicos puntiformes, uno de ellos polarizado en sentido directo, emisor, y otro en sentido inverso, colector.

Este diminuto artefacto, si así se lo puede llamar, no es nada menos que un transistor primitivo, que ha sido reemplazado por otro perfeccionado llamado transistor, adoptado universalmente.

Hace algo más que un cuarto de siglo, el 23 de diciembre de 1947, tres eminentes investigadores crearon el transistor. John Bardeen, dos veces premio Nobel por sus contribuciones sobre física teórica; Walter Brattain, especialista en superficies sólidas, y William Shockley, que ya se había destacado por sus trabajos en electrónica, dieron nacimiento al transistor.

Y uno de los primeros empleos, que asombró a todos sin excepción, fue el de las radios, que desde ese momento pudieron funcionar en diminutos aparatos sin necesidad de la corriente eléctrica. Como amplificador de señales de amplitud variable, el transistor sustituyó bien pronto, con extraordinarias ventajas, a la válvulas electrónicas.

En muy poco tiempo, el transistor fue invadiendo todas las actividades en que, por su uso, podía sustituir a los tubos electrónicos, por su tamaño reducido, su bajo costo, su fácil manejo. Además, su fabricación en serie ha puesto a disposición del mercado mundial transistores en una’ abundancia asombrosa.

Basta decir que, en un solo año; Estados Unidos logró vender a Europa y al Japón más de nueve mil millones de transistores. Desde la guitarra eléctrica hasta las pequeñísimas prótesis que los sordos introducen en sus oídos para escuchar los sonidos, hasta los marcapasos y las extraordinarias telecámaras de las cápsulas espaciales, computadores y satélites funcionan ya a transistores.

Representa el verdadero corazón de todos estos artefactos, desde el más pequeño hasta el más grande.

Para poder dimensionar el valor en toda su magnitud de este descubrimiento, es necesario aclarar que es fundamental la diferencia entre la electricidad y la electrónica; Mientras la primera se vale de electrones —esas partículas infinitesimales que gravitan alrededor del núcleo del átomo de una manera masiva— la electrónica entra en el detalle.

Es decir, de electrones por grupos pequeños, a veces de a uno. Antes de la guerra, para gobernar estos flujos electrónicos tan ínfimos existía un solo dispositivo, la lámpara de radio inventada por Lee De Forest, en 1906.

Los cristales de silicio y germanio, cuyas estructuras son similares a la del diamante, permitieron la creación del transistor. En estos materiales, cada electrón está como prisionero en una determinada posición, y no puede moverse. Sin embargo, una vez liberado, se halla en condiciones de atravesar el sólido y convertirse en transportador.

Además, los cristales de silicio y germanio ofrecen la posibilidad de que el electrón liberado deja un «agujero» en la posición que antes ocupaba. Este vacío se comporta exactamente igual que una carga positiva, y está en condiciones de trasladarse de un átomo al otro.

De esta manera, los electrones funcionan como cargas negativas y los «agujeros» como positivas.

transistorEl secreto del transistor consiste en que, una vez obtenido el materia] muy puro, se lo convierte en conductor, introduciendo la necesaria cantidad de impurezas en los lugares precisos.

Los transistores fueron reemplazando progresivamente a las válvulas, y en todos aquellos aparatos, dispositivos e instrumentos en que se empleaban éstas, se sustituyen por aquéllos.

Así, con las notables ventajas que reportaron se introdujeron en todos los sistemas de telecomunicaciones, telemediciones, telecomandos y teleseñalizacíones.

Transistor Western Electric 2N110 de la década de 1960

Las radios, la televisión, las calculadoras electrónicas, los oscilógrafos, los voltímetros, los distintos instrumentos que se utilizan en el amplio campo de medicina para controlar las intervenciones quirúrgicas, etc.

No se considera que un aparato es moderno, si no ha sido transistorizado, porque representa extraordinarias ventajas en su uso, sus resultados, su manipuleo y en su economía.

El ingenio humano, que no se detiene ni siquiera ante obstáculos que a veces parecen insalvables, ha tratado siempre de ahorrar tiempo, lo que representa dinero, y simplificar las tareas, hacerlas más rápidas y accesibles.

Eso y mucho más representan las computadoras, una de las maravillas más detonantes del siglo XX.

Estas máquinas que realizan las operaciones matemáticas que la mente humana tardaría horas en concretar, y no siempre con exactitud, están prestando un imponderable beneficio a la humanidad, porque han permitido resolver no sólo operaciones de este tipo, lo que ya es mucho, sino también encontraron solución a numerosos problemas de trabajo; se han introducido en el campo de la medicina, en la vida diaria del hogar, y el hombre no habría podido enviar satélites, y menos haber descendido en la Luna, si no hubiera contado con esta prodigiosa conquista.

Los primeros recuerdos sobre la evolución de las máquinas computadoras indican cómo la lógica fue introducida en el cálculo.

Las primigenias máquinas, como la de Pascal, no efectuaban nada más que operaciones aritméticas aisladas; el encadenamiento de las distintas operaciones que daban como resultado el cálculo completo, quedaban enteramente en manos del usuario de la máquina.

El proceso se efectuaba tal como se hace en la actualidad con las máquinas de teclado.

Durante la Segunda Guerra Mundial aparecieron las calculadoras electromecánicas y, posteriormente, las electrónicas, capaces de encadenar las operaciones.

De esta manera, se logró que la máquina ejecutara una serie de operaciones cuya secuencia es conocida de antemano y, además, cierta selección de operaciones, en función de los resultados parciales obtenidos en el curso.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

LOS ENLACES QUÍMICOS EN LA ELECTRÓNICA: Gracias a las propiedades que les confieren, entre otros, los enlaces que son capaces de establecer, algunos elementos químicos tienen múltiples usos en la vida cotidiana.

El silicio, por ejemplo, es un metaloide brillante, gris azulado. Forma el 26% de la corteza terrestre como sílice (SiO2 ) y silicatos. No existe en estado libre en la naturaleza y se prepara por reducción del sílice de la arena a elevadas temperaturas. El silicio forma parte de las arcillas, vidrios, cementos, siliconas.

En los últimos años, la demanda de este metaloide, así como de germanio y de selenio, se incrementó debido a que se utilizan para fabricar transistores y circuitos integrados. En el caso de los transistores se aprovecha la capacidad de semiconductor del silicio.

El cristal de silicio prácticamente no conduce la corriente eléctrica, porque muy pocos electrones tienen la energía suficiente como para escapar de sus átomos. Sin embargo, el agregado cuidadoso de impurezas lo convierte en conductor. Para comprenderlo, es preciso analizar la teoría de las bandas.

Según esta teoría, en una cristal, tal como ocurre en los átomos aislados, los electrones se ubican en niveles o «bandas» respecto de los átomos, pero, a diferencia de los átomos en los cuales estos niveles están bien diferenciados unos de otros, en los sólidos las bandas son continuas unas de otras.

Cuando los electrones se encuentran en la banda más cercana al átomo, llamada banda de valencia, el cristal no conduce la electricidad; en cambio, si se encuentran alejados del á-tomo, en la banda de conducción, el cristal conduce la eletricidad.

En los metales, ambas bandas están pegadas una con otra, y el pasaje de electrones es sencillo. En los no metales y en los semiconductores existe una gran diferencia de energía entre ambas.

Cuando el silicio se contamina con un elemento que tiene un electrón más en su nivel más externo, el electrón sobrante no se une a los electrones del silicio y queda libre para moverse dentro del cristal, alcanzando la banda de conducción.

Se forma así un material llamado semiconductor tipo n. Por el contrario, si el contaminante que se agrega es boro (que tiene un electrón menos), la banda de conducción baja su nivel energético y «se acerca» a la banda de valencia, permitiendo la conducción a través de los «huecos» vacantes. El material formado es un semiconductor tipo p.

Con los materiales semiconductores se fabrican transistores, que son componentes electrónicos que permiten o no el paso de la corriente eléctrica. En 1960 se creó un sistema capaz de tallar, mediante técnicas fotográficas, cientos de transistores en un pequeño bloquecito plano de silicio: se inventó así el primer circuito integrado o chip.

En la actualidad, se construyen chips mucho más complejos llamados microprocesadores, capaces de leer y actuar de distinto modo según las necesidades del usuario. Estos componentes electrónicos pueden manejar la información de dos maneras diferentes:

Los componentes analógicos traducen magnitudes que varían constantemente en señales amplificadas que se modifican de la misma manera. Se usan, por ejemplo, en amplificadores de audio y sintetizadores.

Los componentes digitales reciben, comparan y procesan información en forma de pulsos eléctricos. Las señales de entrada y de salida sólo pueden tomar determinados valores, que se combinan para formar códigos.

Estos componentes forman el sistema binario y se emplean en todos los sistemas computerizados. (Fuente: Química I Alegría-Bosack-Dal Fávero-Franco-Jaul-Ross)

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

ALGO MAS DE HISTORIA DEL TRANSISTOR:

Cuando la radio estaba en su infancia, se utilizaban cristales como rectificadores, permitiendo a la corriente alterna fluir en una sola dirección. Estos receptores de galena eran muy rudimentarios, por lo que fueron reemplazados por aparatos provistos de lámparas. Éstas habían venido usándose también en varios instrumentos electrónicos, incluidos los nuevos ordenadores, durante más de cuarenta años.

antigua radio a galena

Pero las lámparas de radio tienen que ser lo bastante grandes como para encerrar un vacío. Son frágiles, tienen fugas y deben ser reemplazadas a menudo. También gastan mucha energía, y hay que esperar a que el filamento se caliente antes de que el aparato empiece a funcionar.

En 1948, los físicos William Bradford Shockley (1910-1989), Walter Houser Brattain (1902-1987) y John Bardeen (1908-1991) —todos ellos norteamericanos, aunque Shockley era de origen británico— descubrieron un nuevo tipo de cristal.

Consistía mayormente en germanio, peor conductor de la electricidad que los metales, pero mejor que los aislantes, como el vidrio y el caucho. El germanio y el silicio, que pocos años después reemplazó al anterior, por ser más barato y mejor, se consideraron ejemplos de semiconductores.

Si se añadían cantidades mínimas de impurezas al semiconductor, el cristal podía actuar como rectificador o como amplificador. En definitiva, podía realizar cualquier función propia de las lámparas.

Esos semiconductores eran sólidos (de ahí que se hable de dispositivos de estado sólido) y no requerían vacío, de manera que podían ser muy pequeños. No necesitaban ser sustituidos nunca.

Gastaban muy poca energía y no precisaban de calentamiento previo, con lo que su funcionamiento era inmediato. Un compañero de trabajo, el ingeniero norteamericano John Robinson Pierce (1910-2002), sugirió el nombre de transistor, porque transmitía la corriente a través de un «resistidor».

Con el tiempo, los transistores reemplazaron por completo las lámparas. Los transistores y los perfeccionamientos que siguieron podrían muy bien considerarse como el avance tecnológico más significativo del siglo XX.

Historia de las Sulfamidas

Historia de las Sulfamidas

Cuando todavía no se habían descubierto los antibióticos, y mientras el mundo se aprestaba a la guerra, en la paz de los laboratorios hombres de ciencia trabajaban en procura de los elementos que aminoraran los males de la humanidad.

De pronto, en 1935, cuando ya se preveían las primeras chispas de otra conflagración, el universo recibió un anuncio sensacional: un sabio alemán había descubierto que un compuesto químico, utilizado hasta entonces como colorante, tenía extraordinarias propiedades terapéuticas y era de singular eficacia en la lucha contra la infección.

Poco después las sulfamidas llegaban a todos los rincones de la Tierra, y con su aplicación terminaban muchas enfermedades.

LAS SULFAMIDAS: EL descubrimiento sensacional que revolucionó la quimioterapia en el año 1935 tenía antecedentes. Si bien es cierto que ya en 1908, es decir, casi 30 años antes, se consiguió preparar algunas drogas maravillosas, los primeros compuestos sintetizados en esa época servían sólo como colorante, y nadie pensó en su extraordinario poder bactericida.

Después de 1930, se empezó a pensar en las propiedades terapéuticas de estos compuestos, hasta que en 1935, luego de algunos estudios preliminares, apareció el primer trabajo sobre las sulfamidas, que habrían de provocar una verdadera revolución en el campo terapéutico.

Bajo el título de «Contribución a la quimioterapia de las infecciones bacterianas», el sabio alemán Domagk explicaba cómo un producto, especie de derivado del azufre, contenía extraordinarias propiedades bactericidas. Aparecieron ese mismo año trabajos de otros autores, alemanes, franceses e ingleses, pero pasó más de un año sin que los médicos ni el público se hubieran dado cuenta de la enorme trascendencia del descubrimiento de Domagk.

En realidad fue la propaganda comercial la encargada de informar al mundo. Y a fines de 1936 y principios de 1937, las grandes fábricas de productos medicinales enviaban a los médicos de todo el orbe folletos explicativos de la nueva droga y sus derivados, que aparecían uno después de otro, en impresionante sucesión.

El mundo comenzó a enterarse de inesperadas curaciones y la gente, con el consabido entusiasmo, comentaba las más diversas historias sobre agonizantes salvados.

Lo importante es que, contra la neumonía, antes de 1935 no se conocían remedios muy eficaces. Los enfermos morían o se curaban según sus propias reservas. La meningitis sólo en muy raros casos no era mortal y lo mismo ocurría con las septicemias por cocos. Todo cambió radicalmente después de 1935, gracias a la sulfamida Los médicos la recomendaron para muchas enfermedades de carácter infeccioso.

La droga cobró tanta popularidad y el público le había tomado tan amplia confianza, que compraba los comprimidos y los ingería con cualquier pretexto. Se emplearon hasta contra la gripe y el resfrío sin prescripción médica y, como es natural, aparecieron los fracasos. Porque la droga descubierta por Domagk no tenía eficacia en todos los casos.

Las primeras sulfamidas eran parecidas al prontosil. Después, los químicos se encargaron de mejorarlas, tomando como guía lo que ocurre en nuestro organismo. Probado que el prontosil sufre modificaciones después de haber entrado en el organismo y es el nuevo compuesto el que tiene verdadera acción activa, se procura modificar la fórmula en los laboratorios. Es decir, que se trata de producir la sustancia ya preparada para ser inyectada con todo su poder bactericida.

Así se llega a la sulfanilamida, sustituto de todos los compuestos sulfamídicos existentes hasta entonces. Apareció más tarde, en 1938, en Inglaterra, la sulfapiridina y un año después se creó, en los Estados Unidos de Norteamérica, el sulfatiazol, droga que dominó todo el campo de las sulfamidas.

Paulatinamente, se fueron eliminando los efectos tóxicos del nuevo producto, que causaba trastornos en algunos organismos. En esa paciente tarea de laboratorio se logró, primero la sulfadiazina, más tarde la sulfaguanidina y después la sucinil-sulfa-ziatol o sulfasuxidina, desinfectante intestinal, la sulfametazina y la sulfamerizina.

¿Cómo actúan las sulfamidas? La droga no mata directamente a los gérmenes sino que les impide desarrollarse, paralizándolos.

El perfeccionamiento del medicamento después de conocerse su fórmula analítica, permitió elaborarlo como polvo blanco, cristalino, poco soluble en agua. Las investigaciones realizadas posteriormente permitieron comprobar que la sulfamida lograda de esta manera se absorbe a través de la mucosa digestiva y se difunde rápidamente por todo el organismo con una acción terapéutica muy enérgica contra algunas enfermedades infecciosas.

Los descubrimientos más recientes han revelado la manera cómo actúa la sulfamida y es que ella no permite la multiplicación de los gérmenes patógenos sustrayéndoles una sustancia que necesita el microorganismo para cumplir ese proceso. Asimila el ácido paraaminobenzoico en el ciclo metabólico de los microorganismos y con ello, pierde la capacidad de reproducirse. De esta manera queda detenida su acción patogénica. Nuevas investigaciones permitieron concretar otras drogas derivadas del núcleo químico principal de la sulfamida, pero algunas como la sulfanilamida pueden provocar manifestaciones tóxicas.

Los soldados aliados que participaron en la Segunda Guerra trataban sus heridas con sulfanilamida, un antibiótico artificial descubierto en 1932 por el médico alemán Gehrard Domagk, un discípulo de Paul Ehrlich que, como su maestro, buscaba una “bala mágica” para matar a las bacterias sin intoxicar a las personas.

Estas intoxicaciones se manifiestan, en el sistema digestivo, en la sangre con la producción de cianosis yagranolocitosis en la piel, en el hígado y en los riñones. Los últimos adelantos han permitido concretar un medicamento que puede ser administrado, sencillamente, por la vía oral en las afecciones causadas por los estreptococos por medio de comprimidos, pero también como polvo para el tratamiento de las heridas, úlceras, etc.

Últimamente se ha logrado sintetizar otro compuesto que tiene su origen en la sulfamida, pero con la ventaja que son menos tóxicas que la sulfanilamida y además, tienen una acción terapéutica más pronunciada: elsulfatiazol, la sulfadiacina, la sulfametacina.

Lamentablemente, las sulfamidas a igual que los antibióticos descubiertos posteriormente no tienen acción contra las dolencias producidas por virus. No manifiestan su poder curativo sobre estas entidades ultramicroscópicas y ello se debe, a que son moléculas proteínicas de tamaño sumamente pequeño, únicamente individualizadas a través del microscopio electrónico.

La industrialización masiva de los antibióticos y la introducción de la penicilina como droga activa vino a reforzar la actividad terapéutica de las sulfamidas que se pueden administrar en dosis adecuadas con los antibióticos en casos así prescriptos y mucho más cuando los gérmenes se transforman en antibióticos resistentes.

La alternancia entre ambas drogas resulta de eficacia para bloquear varias enfermedades infecciosas. En buena hora.

Fuente Consultada: 75° Aniversario de LA RAZÓN Historia Viva

Historia de los Lentes de Contacto Primeras Investigaciones y Evolución

Historia de las Lentes de Contacto
Primeras Investigaciones y Evolución

Las lentes de contacto representan una de las creaciones maravillosas de este siglo. Desde que Rene Descartes -1596-1650- anticipó la posibilidad de modificar las propiedades visuales del ojo, anteponiéndole un tubo con agua, numerosos investigadores, en distintos países, se dedicaron a perfeccionar las lentes de contacto que permitieran corregir el astigmatismo miópico y queratocono. Un extraordinario adelanto representaron las lentes corneales de diámetros 8 a 9.85 mm. En 1962 fue presentada por primera vez en nuestro país una lente de contacto gelatinosa y, posteriormente, una de caucho de silicona. El uso de materiales plásticos blandos constituyó la conquista más sobresaliente, por la permeabilidad lograda.

SI bien el invento maravilloso que representan las lentes de contacto es una de las creaciones más significativas relacionadas con la oftalmología, en lo que concierne a una corrección estética de la visión alterada y que fuera lograda en el transcurso de este siglo, lo cierto es que ya Rene Descartes, 1596-1650, anticipó la posibilidad de modificar las propiedades visuales del ojo, anteponiéndole un tubo con agua en cuyo extremo se encontraba una lente. Puede considerarse a este principio como el más aproximado de lo que en la actualidad puede entenderse como sistema básico de lente de contacto.

Historia de los Lentes de ContactoFue en 1827 cuando el físico inglés Thomas Young (imagen izq.) se ocupó del principio cartesiano de neutralizar la córnea mediante el uso del agua. Pero las primeras investigaciones realizadas en Alemania, con una lente de contacto colocada directamente sobre el globo ocular, parecen haber sido realizadas por el fabricante de prótesis oculares F. C. Muller.

Más que corrección de la visión esa lente fue utilizada para proteger el ojo. Al año siguiente, el doctor Eugen Fick comenzó en Zurich experimentos destinados a corregir problemas de la visión creados por astigmatismo, empleando lentes de contacto. Pero fue en 1892 cuando se logró por primera vez éxito en la adaptación de lentes de contacto.

Fue el doctor D. E. Sülzer, en Ginebra, quien las empleó sobre tres pacientes que sufrían de astigmatismo miópico y queratocono. Las primeras lentes de contacto fueron fabricadas en Jena, por Cari Zeiss, pero también otra firma, en Basilea, proveyó a este facultativo de estos adminículos visuales.

Poco antes de declararse la primera conflagración mundial, dos científicos, Meritz von Rohr y W. Stork, realizaron un profundo estudio sobre corrección del astigmatismo mediante el uso de las lentes de contacto, quienes al mismo tiempo dieron a conocer sus conclusiones en sendos trabajos científicos. Poco después aparecieron las lentes esclerales sopladas, y fue el doctor Dallos, en Budapest, quien en 1928 inició la adaptación de lentes esclerocorneales, tomando moldes del ojo.

Cuatro años más tarde, Dudragen, en París, elaboró lentes de contacto plásticas, con adhesión de tipo capilar. A medida que avanzaba el tiempo, los científicos dedicados a estas investigaciones realizaron otros estudios tratando de mejorar las primeras lentes de contacto.

Felnbloon, en Nueva York, logró elaborar una lente de contacto escleral en la cual la zona corneal era de vidrio, y la escleral de plástico. Un año después, presentó lentes plásticas con una zona corneal esférica, la intermedia hasta la zona escleral, cónica, y el espacio escleral propiamente dicho, esférica.

Entre tanto, ese mismo año, el doctor Obrig, también en Nueva York, presentó lentes esclerales totalmente de plástico, y dos años más tarde empezó a fabricarlas en cantidad. Mientras, en la Argentina, dos firmas iniciaban la elaboración de lentes de contacto esclerocorneales y el doctor C. W. Dixey lo hacía en Londres, empleando polimetacrilato torneado, mediante aparatos de su creación.

Rápidamente, antes de terminar la primera mitad del siglo, fueron perfeccionándose las lentes de contacto mediante el esfuerzo de numerosos profesionales y técnicos, Y es así como Norman Bier, en Londres, introduce lentes de contacto con perforaciones para ventilación: Kevin M. Touhy, en los Angeles, elaboró lentes corneales de plástico en forma masiva, cuyo diámetro ya era sólo de once milímetros; Feinbloon propuso el uso de lentes fabricadas totalmente en plástico; Nissel, en Inglaterra, creó una lente cuya zona de transición era la parte corneal, y la escleral era cónica y con ventilación; O. Marzock y P. Abel, en Berlín, fabricaron lentes esclerales con zona apical cónica.

Un extraordinario adelanto en esta materia representó en la mitad de este siglo el proporcionado por Wbltfk, quien elaboró lentes corneales con diámetros ya de 8 y 9,85 mm, una lente verdaderamente diminuta. Cuatro años después, Dickinson, en Inglaterra, Neilli, en Estados Unidos, y Sohnges, en Alemania, elaboraron en forma conjunta una microlente de mayor tolerancia que las conocidas hasta aquel entonces, debido a su menor diámetro, espesor y peso y, es necesario destacar, que ya se fabricaba en la Argentina.

En 1960, trabajando en Praga, Otto Wichterle logró las primeras lentes de copolímeros de hidroxietilmetacrilato, considerándose que ello marca el comienzo de una nueva etapa en la fabricación de eslas lentes. En 1962, se patentó en nuestro país una lente de contacto gelatinosa, y en 1970 se presentó en el XXI Congreso Internacional de Oftalmología un lente de caucho de silicona, con que culminan las primeras lentes de contacto blandas, y presentan la ventaja de realizarse en todas graduaciones y curvaturas.

Uno de los prejuicios que siempre ha existido, y que pudo haber conspirado contra el uso de las lentes de contacto, es el temor de dañar con algún elemento extraño el glóbulo ocular. Es que el roce indebido puede producir una irritación ostensible. Pero los científicos y técnicos que se han dedicado a tan delicada actividad de elaborar lentes de contacto, entre ellos oftalmólogos, químicos y físicos trataron de obtener, y lo lograron después de cierto tiempo, una lente permeable al oxígeno sin afectar el metabolismo de la córnea.

La permeabilidad, propiedad de dejar pasar los líquidos, y la porosidad, que alude a la presencia de pequeños poros, se han podido concretar mediante materiales plásticos blandos. Y es que es necesario respetar el intercambio entre el medio externo y el ojo. Nada puede impedir el pasaje de la secreción lagrimal.

El movimiento de los párpados distribuye ese líquido en la superficie del ojo y mediante su efecto de bombeo alimenta a la córnea. Las lentes flexibles convencionales se valen del bombeo de los párpados para conservar el nivel adecuado del fluido lagrimal. En estos últimos años se ha logrado la fabricación de lentes de contacto permeables a los gases.

Con estas lentes quedan eliminadas completamente las dificultades producidas por la modificación de los radios corneales y el fenómeno del «spectacle blur». Existe, además, una relación más estrecha con el ojo, por su mejor absorción del agua, y la buena permeabilidad del material lo que facilita su tolerancia. Las lentes blandas se elaboran actualmente con membranas hidrófilas, cuyos canales porosos permiten el intercambio a través de la lente. La última novedad la representan aquellas que permiten el cambio de color del iris, lo que realza la belleza de los ojos.

En 1977, el óptico alemán Heinrich Wohlk, quien, como se ha dicho, inventó en 1946 las lentes corneales de 8 v 9,85 mm., consideradas muy diminutas, prosiguió con sus trabajos de perfeccionamiento, descubriendo que con el empleo de silicón y caucho en la fabricación, las lentes pueden usarse sin interrupción durante meses.

En nuestro país, las investigaciones sobre las lentes de contacto se realizan a nivel internacional. En setiembre del año pasado se realizó en Buenos Aires un congreso internacional, que congregó a más de 700 especialistas procedentes de 28 países, quienes trataron diversos temas. y se procuró eliminar la individualidad de las investigaciones, para divulgarse los resultados.

Se estima que en toda la República alrededor del 30 % de la población usa anteojos, pero este porcentaje se debe a la circunstancia de no realizarse un examen anual con el médico oculista. La mayoría de los pacientes que pueden solucionar sus problemas con anteojos, también puede hacerlo con las lentes de contacto.

Fuente Consultada:
LA RAZÓN 75 AÑOS – 1905-1980 Historia Viva – Los Lentes de Contacto