Historia de la Computación

Biografia de Babbage Charles Inventor de la Maquina Analitica

Biografia de Babbage Charles-Inventor de la Maquina Analitica

BABBAGE, Charles. (Teignmouth, 1792-Londres, 1871.) Matemático británico. Se le considera el padre de las computadoras digitales, pues en 1822 construyó un modelo de calculadora mecánica (la máquina diferencial), así llamada porque para realizar sus cálculos utilizaba la teoría matemática de las diferencias finitas.

Más tarde (1823-42) recibió apoyo del gobierno para construir otra más compleja, que operaría con 21 cifras decimales e incluía unas 25.000 piezas.

Una pequeña porción de la máquina (unas 2.000 piezas) quedó montada en 1832 y se convirtió en la primera calculadora mecánica.

Pero el proyecto completo fracasó y el gobierno británico le retiró su patrocinio.

En 1847 trató de construir una segunda versión mejorada (la máquina diferencial número 2), pero no pudo obtener apoyo.

La máquina ha sido construida en 1991 por Doron Swade, del Museo de la Ciencia de Londres, y su funcionamiento ha sido satisfactorio, lo que demuestra que el diseño de Babbage era correcto.

En 1834 diseñó la máquina analítica, capaz de realizar toda clase de operaciones con una estructura semejante a la de las computadoras modernas, pero no llegó a construirse, quedando olvidada hasta que se publicaron las notas de Babbage en 1937.

ació el 26 de diciembre de 1792, en 1 Teignmouth, Devon (Inglaterra).

Estudió en la Universidad de Cambridge y publicó las tablas de logaritmos más exactas de su época.

La máquina se habría programado por medio de tarjetas perforadas, según un procedimiento inventado por la condesa Ada Lovelace (hija de Lord Byron), a quien se considera la primera programadora de la historia, y en cuyo honor se impuso su nombre al lenguaje de programación Ada, patrocinado por el departamento de defensa de los Estados Unidos.

BREVE FICHA BIOGRAFICA

• A los 23 años se casó con Georgiana Whitmore, con quien tuvo ocho hijos.

• En 1823 empezó a construir la máquina diferencial: una calculadora mecánica que hacía rápidamente sumas complejas.

• Después de 1832 ideó la máquina analítica, inspirándose en las tarjetas perforadas del telar de Joseph-Marie Jackard, inventado en 1801.

• En 1834 renunció el mecánico que lo ayudaba en la construcción de la
máquina diferencial y su invento quedó sin terminar.

• En 1843, Ada Byron hija del poeta inglés lord Byron, le sugirió adaptar las tarjetas perforadas para que permitieran que el motor de Babbage repitiera ciertas operaciones. Debido a que la tecnología de la época no era lo suficientemente avanzada y a la falta de apoyo económico para realizar su proyecto, Babbage nunca llegó a construir la máquina analítica.

• Murió en 1871, en Inglaterra.

Biografia de Babbage
Debido a la colaboración que Ada Byron le brindó a Babbage, muchas personas la consideran como la primera programadora de computadoras y por eso un lenguaje de computación lleva su nombre: ADA.

SU LOCA IDEA: Construir una máquina analítica que podía almacenar y seleccionar información, resolver problemas a una velocidad de sesenta operaciones por minuto e imprimir. El diseño requería mecanismos que necesitaban una locomotora para ponerse en movimiento. El aparato no llegó a construirse y casi nadie creyó en él; se hizo famoso como «la locura de Babbage».

Además de estas actividades, Babbage fue profesor de matemáticas en la Universidad de Cambridge, contribuyó a la fundación de varias sociedades científicas importantes, a la organización del sistema postal británico, y a la aceptación en Gran Bretaña de la notación de Leibniz para el cálculo diferencial, en colaboración con John Herschel.

Entre sus obras destacan Reflections on tire decline ofscience in England (Reflexiones sobre la decadencia de la ciencia en Inglaterra) y On the economy ofmachinery and manufactures (La economía de máquinas y manufacturas).

babbageg charles maquina diferencial
Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820.

La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada.

Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época.

En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.

El libro de Babbage, Tratado de economía de máquinas y de manufacturas (1832), inició el campo de estudio conocido actualmente como investigación operativa.

Fuente Consultada:
Grandes Cientificos de la Humanidad Tomo I Editorial Espasa Manuel Alfonseca- Entrada Charles Babbage
Ficha Individual Sobra la Vida de Babbagge Charles de GENIOS
Enciclopedia Electrónica ENCARTA – Entrada Charles Babbage

Historia de la Computacion Generaciones y sus Caracteristicas

Historia de la Computación
Principales Características de las Generacionesas

TEMAS TRATADOS:

1- Introducción y Antecedentes Históricos

2- Primeras Máquinas Mecánicas de Calcular

3- Evolución del Computador Electrónico

4- Generación de Computadoras

  a) Primera Generación

  b) Segunda Generación

  c) Tercera Generación

  d) El Chip o Microprocesador – Cuarta Generación

5- Medir la Memoria – Almacenamiento de Datos – Tareas de una Computadora

6- Fechas Claves de la Historia de la Computación

7- Primeras Palabras de la Computación

HISTORIA DE LA COMPUTACIÓN: Los primeros seres humanos usaban el método más obvio para contar, sus dedos. Pero estos esfuerzos de cálculo estaban limitados a cantidades bastante pequeñas; además los dedos no eran medios adecuados de registro de datos, particularmente cuando fue necesario un lenguaje de signos.

Dos medios precoces de registro de datos y cálculo llevaban consigo el uso de diagramas y piedras. Los dibujos con carbón de leña de los pueblos primitivos muestran el uso de marcas para registrar cantidades de ganado. Las marcas podían ser añadidas o borradas según estos inventarios eran consumidos o repuestos.

Una aproximación al problema igualmente simple seguía una relación uno-a-uno: una piedra equivalía a una unidad de bienes. Los pastores utilizaban este principio para controlar sus rebaños, asociando una piedra con una oveja. En la terminología de hoy, podríamos decir que los pastores guardaban un inventario de sus ovejas. Aunque los términos puedan cambiar a través del tiempo, el principio sigue siendo el mismo. Los inventarios se realizan con un planteamiento uno-a-uno.

La dificultad de usar piedras era su falta de portabilidad. Un gran rebaño significaba literalmente cientos de piedras y por tanto penalizaba los recursos físicos del pastor. Así, los pastores pasaron a otros métodos de registrar los tamaños de los rebaños. Nudos en cuerdas hechas de cuero de animales proporcionaron una solución, significando cada nudo de 5 a 10 ovejas.

Uno de los primeros dispositivos para facilitar el cálculo fue el abaco. Este dispositivo utilizaba un esquema de numeración basado en los cinco dedos de la mano. Pudo haber sido fácilmente una extensión del uso combinado de las tiras de cuero y las semillas.

Antes de comenzar a eneumerar las distintas maquina creadas por el hombre, vamos a decir que hay una que se ha destacado muy por encima de las demás: el llamado ordenador electrónico o computador.Desde su origen se lo ha comparado como una especie de cerebro humano y hasta ha recibido de «cerebro electrónico». Su función se ha debatido en todos los rincones intelectuales y se ha llegado a polemizar sis estas maquinas piensan realmente o no. Sin  dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina de calcular, por muy sofisticada que ésta sea, solo podemos afirmar que en lo único que se ve superado el cerebro por la máquina es en la velocidad de cálculo, probablemente de ahí venga su mitificaclón.

Antecedentes históricos

Si intentamos encontrar el origen de las máquinas de calcular, y no somos demasiado rigurosos en cuanto a las características exigidas para ser consideradas como tales, podemos retroceder varios miles de años, sin poder precisar cuántos, hasta llegar al más elemental de los utensilios destinados a facilitar el cálculo: el abaco. Aun a pesar de su antigüedad, sigue utilizándose actualmente en algunos países asiáticos, donde tuvo su origen.

El abaco está constituido por una tablilla dividida en varias columnas, la situada más a la derecha corresponde a las unidades, la anterior a las decenas, y así sucesivamente.

abaco

Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

En cada columna podemos distinguir cinco cuentas elementales y dos cuentas que representan cinco unidades colocadas en la parte superior. Una vez representado un número mediante todos sus dígitos en las columnas apropiadas, para proceder a sumarle otro bastará con ir acumulando dígito a dígito, de forma que si al realizar la adición en alguna de las columnas se llega a tener diez cuentas, éstas se eliminarán y se sumará una cuenta en la columna situada a su izquierda. Con un poco de paciencia y algo de práctica se pueden realizar, con este simple utensilio, adiciones y sustracciones de números grandes a velocidades bastante elevadas.

EL ABACO: Nadie sabe cuándo se introdujo el uso del abaco, pero probablemente ya era conocido en Egipto al menos en el 500 a. J.C. Consiste, en lo esencial, en hileras de cuentas, a veces enhebradas. En su forma más simple, cada hilo tiene diez cuentas: la primera hilera representa las unidades, la segunda las decenas, la tercera las centenas y así sucesivamente. Las cuentas pueden manejarse igual que movemos los dedos de una mano para sumar y restar elementalmente. La ventaja radica en que se dispone de nueve o diez «manos» —tantas como hileras de cuentas — , y los movimientos efectuados son más sencillos y rápidos que los requeridos por la cuenta con los dedos. Una persona hábil puede utilizar el abaco a gran velocidad para multiplicar, dividir y realizar muchas operaciones aritméticas complicadas. Se trata del primer dispositivo realmente importante concebido por los seres humanos para contar.

A lo largo de la historia se han inventado otras muchas máquinas que no vamos a considerar como prototipos de los actuales ordenadores por su sencillez, hasta que en el siglo XVII el filósofo y científico francés Blaise Pascal, cuando tan sólo contaba 18 años de edad, inventó su máquina calculadora.

pacalina de pascal

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

La máquina en cuestión estaba construida a partir de un determinado número de medas dentadas (hasta la aparición de los relojes digitales, este tipo de ruedas ha sido el habitual en la industria relojera) de forma que al rodar 10 dientes de la primera rueda, avanzaba un diente de la segunda; al rotar 10 dientes de la segunda, avanzaba un diente de la tercera, y así sucesivamente. Evidentemente, dicha máquina sólo servía para sumar y restar; además, su utilización era tan farragosa que no suponía ninguna ventaja práctica respecto al cálculo manual, más bien todo lo contrario.

La máquina diseñada por Pascal sirvió de base para la que un siglo más tarde construyó el matemático alemán Leib-niz. El objetivo de Leibniz era mucho más ambicioso, ya que para él la máquina no era más que un puente entre el enunciado de un problema y su resolución. De alguna forma daba a su máquina el sentido que en la actualidad damos a los algoritmos.

Blais Pascal

La máquina original de Pascal sólo servía para la adición y la sustracción, la perfeccionada por Leibniz también permitía multiplicar y dividir mediante sumas y restas sucesivas. Para ello utilizaba cilindros con dientes de diferentes longitudes, ajustando por encima de ellos otros engranajes más pequeños, cada uno de los cuales representaba una cifra del multiplicando y estaba situado de forma que cada giro completo del conjunto de engranajes largos registraba una vez el multiplicando, y el multiplicador se expresaba mediante el número de giros de los engranajes largos. Cuando en el siglo XIX se comercializaron las primeras máquinas de calcular, su sistema de funcionamiento estaba basado precisamente en este mecanismo.

historia de la computacion y computadoras

Calculadora diseñada y construida por Mattieu Hahn en 1779. Se estima que es la primera máquina de calcular capaz de realizar las cuatro operaciones aritméticas.

historia de la computacion y computadoras
Máquina de multiplicar diseñada para realizar la operación directamente, sin recurrir a la repetición de adiciones. Fue construida por León Bollée en 1887.

historia de la computacion y computadoras

Máquina tabuladora eléctrica de Hollerith patentada en 1889. Dos veces más veloz que las restantes máquinas contemporáneas, la tabuladora eléctrica es la madre de las modernas máquinas de tratamiento de datos. Se utilizó en 1890 para elaborar el censo de los Estados Unidos de América.

Las máquinas de Babbage
Ya en el siglo XIX, el matemático inglés Babbage dio un gran impulso al diseño de máquinas matemáticas, como él mismo las denominaba. Dedicó toda su vida a dichas máquinas y encontró problemas insalvables a la hora de llevar a la práctica sus proyectos, ya que la complejidad mecánica que conllevaban era excesiva para aquella época. Su obsesión por sus máquinas fue tan grande que se convirtió en una persona huraña y amargada, él mismo llegó a afirmar que no había conocido ni un solo día feliz en su vida.

Entre sus innumerables trabajos podemos citar la elaboración de una tabla de logaritmos que obtuvo gran éxito, así como unas tablas de mortandad con las que pretendió popularizar los seguros de vida. En cualquier caso, su principal objetivo era construir máquinas que calculasen e imprimiesen tablas matemáticas. Ideó un pequeño modelo que consistía en 96 ruedas y 24 ejes, al que denominó «máquina diferencial».

maquina de babage

Pascal y Leibniz construyeron máquinas calculadoras (véase 1642 y 1693), pero sólo permitían efectuar las tareas más sencillas.
Hacia 1822, el matemático inglés Charles Babbage (1792-1871) empezó a pensar en algo mucho más ambicioso. Deseaba una máquina que funcionara con tarjetas perforadas, como un telar de Jacquard (véase 1801), capaz de almacenar respuestas parciales a fin de reservarlas para operaciones adicionales que se efectuarían posteriormente, y capaz asimismo de imprimir el resultado. Todo cuanto imaginó era factible, pero no por medios meramente mecánicos, aplicando las técnicas de la época. Babbage pasó casi el resto de su vida tratando de construir la máquina, mientras sus planes eran cada vez más grandiosos. Babbage había concebido el moderno ordenador, pero carecía de los necesarios conmutadores eléctricos. Se precisaría un siglo para desarrollarlos.

Babbage estimó necesario tres años para construir dicha máquina para el gobierno británico, pero a medida que avanzaba en su construcción, ideaba nuevos sistemas que hacían inútil todo el trabajo realizado anteriormente. Después de cinco años tuvo que abandonar el trabajo por problemas económicos.

Pronto olvidó el viejo proyecto para niciar uno nuevo al que denominó «máquina analítica» y que -según él mismo dijo- era «una máquina que se muerde su propia cola», ya que los resultados que producía podían ser utilizados como catos de entrada para un nuevo cálculo.

La máquina analítica estaba diseñada oara ser capaz de realizar cualquier operación matemática y se puede considerar como la primera máquina programare, aunque el programa era externo a la máquina. Según el diseño, debía disponer de una memoria capaz de almacenar  1.000 números de 50 cifras, podía utilizar funciones auxiliares que constituían su propia biblioteca, podía comparar númeeros y actuar de acuerdo con el resultado de la comparación; en definitiva, su estructura era muy parecida a la de los cimeros ordenadores electrónicos.

Precisamente, su principal limitación era que para su funcionamiento no podía contar con la electrónica, teniendo que conformarse con la mecánica. Toda la información se almacenaba en grandes tarjetas perforadas que contendrían tanto los datos como los programas y el mecanismo de funcionamiento se basaba en alambres, que según pudieran atravesar o no los orificios de las tarjetas, ponían en marcha los engranajes oportunos.

Los fracasos, debidos a la gran complejidad del sistema, fueron continuos y el proyecto quedó abandonado. No osbtante, Babbage estaría hoy orgulloso si pudiera comprobar cómo su lógica ha sido adoptada en los modernos ordenadores electrónicos.

Calculadora electromecánica
El censo norteamericano ganaba en complejidad. Cada vez había más habitantes, y crecía el número de preguntas que se formulaban a cada persona. La información recogida era tan voluminosa, que llevaba literalmente años elaborarla.

El inventor norteamericano Hermán Hollerith (1860-1929), que trabajaba en el censo, pensó que podía mejorarse la manera de manejar los datos, y a partir de 1880 se lanzó a la tarea de encontrarla. Empleó tarjetas perforadas similares a las de Jacquard y Babbage. Cada tarjeta podía ser perforada para representar los datos recogidos en el censo: distribuidas en los lugares apropiados, las perforaciones representaban sexo, edad, ocupación, etcétera.

Hermann Hollerit

Hermán Hollerith (1860-1929)

Con objeto de sumar y analizar toda esta información, las tarjetas se colocaban en un montón, y un dispositivo metálico presionaba sobre ellas. El dispositivo tenía muchas agujas, que eran detenidas por la cartulina, pero cuando encontraban una perforación, pasaban a través de ella y alcanzaban un recipiente de mercurio situado detrás.

Entonces discurría a través de esas agujas una corriente eléctrica que transmitía una señal a un cuadro. Como las tarjetas perforadas pasaban rápidamente por esa máquina, sólo era necesario tomar nota de los números que iban apareciendo en el cuadro.

La diferencia fundamental entre los ingenios de Hollerith y de Babbage era que el primero hacía uso de la electricidad. O sea que desarrolló una calculadora electromecánica, y no meramente mecánica.

Con el tiempo, Hollerith fundó una compañía dedicada a construir toda clase de máquinas capaces de manejar y analizar información. Esa empresa creció hasta convertirse en la International Business Machines Corporation, conocida generalmente como IBM.

tarjeta perforada

Una Antigua Tarjeta Perforada

Evolución hacia el ordenador electrónico

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquin; ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944 John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945 Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

LAS MAQUINAS ELECTROMECÁNICAS DE CONTABILIDAD

Hacia el ordenador actual
El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valló de los grandes adelantos de la electrónica en esos momentos.

En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

 computadora electrónica

Historia de la Computación:
Generaciones de los Ordenadores:

Desde que en la primera parte de la década de los cincuenta se empezaron a utilizar los ordenadores con fines comerciales, éstos han evolucionado hasta el punto de que se pueden distinguir tres generaciones distintas y claramente diferenciadas.

El método que nos permite decidir en qué momento termina una generación y empieza otra se basa fundamentalmente en dos características: la tecnología empleada para la construcción de los ordenadores yía arquitectura de los sistemas. Describiremos a continuación las diferencias existentes entre las tres generaciones, tanto desde el punto de vista de las características físicas de los equipos, como desde la perspéctiva de las dinstintas técnicas de organización y explotación.

HISTORIA: PRIMERA GENERACIÓN DE COMPUTADORAS:

Los ordenadores pertenecientes a la primera generación estaban basados fundamentalmente en válvulas electrónicas, por ese motivo su tamaño era muy grande y su mantenimiento complicado; se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Otra característica de los ordenadores de esta generación era la escasa fiabilidad; por ejemplo, el tiempo medio entre dos averías de una unidad central era inferior a la hora, esto implicaba que para garantizar el buen funcionamiento de un equipo se necesitaba la total dedicación de un grupo de personas encargadas del mantenimiento. Los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de programas largos implicaba esperas incluso de varios días.

La forma de ejecutar los trabajos en los ordenadores de esta generación era estrictamente secuencial: el programa, que previamente se había perforado en tarjetas, se cargaba en la memoria del ordenador y, a continuación, se ejecutaba, procesando las instrucciones de entrada de datos desde cualquiera de los dispositivos de que se disponía, las instrucciones de cálculo y las de salida de información. En cada instante el ordenador no se dedicaba más que a una única tarea, por lo que si se estaba realizando un proceso de lectura de fichas perforadas, el resto de los componentes del sistema permanecían ociosos hasta finalizar la lectura.

UN PASEO HISTÓRICO: Los años 30 vieron la aparición de la investigación que iba a conducir a las primeras computadoras. En 1934, bajo la supervisión del Dr. John V. Atanasoff en el Iowa State College, se modificó una máquina de proceso de tarjetas para realizar cálculos aritméticos bajo controles activados mecánicamente.

Unos cinco años después, el Dr. Atanasoff y Clifford Berry construyeron la computadora Atanasoff-Berry o ABC, que estaba formada por válvulas de vacío y poseía una memoria limitada en la que los datos que iban a ser procesados podían almacenarse.

Investigaciones paralelas sobre sistemas electromecánicos se producían mientras tanto en otros lugares. En Harvard en 1937, el Dr. Howard Aiken y sus ayudantes, en colaboración con IBM, concibieron la idea del Mark I, que fue reconocida posteriormente como la primera computadora. El Mark I pesaba unas 10.000 libras, medía unos 50 pies de largo y contenía unas 760.000 partes móviles. Una estructura similar a un programa que consistía en series de instrucciones se empleó para dirigir al Mark I en sus cálculos.

Mientras que las actividades mencionadas anteriormente recibían la aclamación pública, técnicos investigadores británicos trabajaban en secreto en una computadora llamada Colussus. Sólo recientemente ha salide a la luz lo relativo a este proyecto y su impacto en el esfuerzo bélico británico.

El Colussus se usó para romper los códigos de comunicación nazis y esclarecer las estrategias alemanas. La computadora podía leer datos codificados a una velocidad de 5.000 caracteres por segundo, analizar sus contenidos textuales, y dar salida al material codificado transformado por medio de una máquina de escribir eléctrica.

La computadora Colussus demostró que una gran cantidad de intrincados circuitos electrónicos podía manejar adecuadamente cálculos a gran velocidad.

Los militares teóricos se dieron cuenta rápidamente del potencial que las computadoras podían tener en la guerra moderna y urgieron a que se dieran de programa almacenado, una idea que revolucionó la informática. La mayoría de las computadoras anteriores al EDSAC eran dirigidas por paneles de control cableados para realizar un conjunto específico de tareas.

Un cambio en el tipo de tareas significaba un gran esfuerzo en cablear la computadora para una nueva tarea. El Dr. von Neuman teorizó que una computadora no debería estar controlada exteriormente por un conjunto de cables, sino directamente en su proceso por una serie de instrucciones, contenidas directamente en su memoria.

Un programa almacenado dentro de la computadora dirigiría todo el procesamiento, iniciando la entrada de datos a la computadora, dirigiendo la impresión de los resultados del procesamiento y controlando la actuación de las operaciones aritméticas.

El programa almacenado en la computadora podría controlar un conjunto completo de actividades y, por tanto, dirigir el procesamiento de la computadora de una tarea específica.

El siguiente programa dentro de la memoria de la computadora podría llevar a cabo una tarea diferente sin necesidad de volver a cablear el computador. Esencialmente, la computadora poseería la capacidad de realizar una variedad de operaciones de procesamiento, cualquiera de las cuales podría ser iniciada por el programa almacenado dentro de su memoria. EDSAC proporcionó el vehículo para probar la realidad del concepto de programa almacenado de Von Neumann.

Una de las computadoras accesibles comercialmente fue el UNIVAC I, introducido en 1951. La computadora fue diseñada bajo la supervisión de Mauchly y Eckert para la oficina del censo de los EE. UU. El UNIVAC I introdujo los prototipos de lenguaje de programación y técnicas que fueron desarrolladas para su uso en futuras computadoras.

Fue en esta época cuando IBM entró en la industria informática presentando su primera computadora, el IBM 701, en 1953. Al cabo de un año, IBM introdujo su sistema IBM 650, que demostró ser una de las computadoras más populares de esa época. Podía realizar operaciones con tarjetas de computadora, dando posteriores modelos de esta máquina soporte a dispositivos más sofisticados. Posteriormente, IBM presentó sus computadoras 702 y 704, diseñadas para las áreas de los negocios y la ciencia respectivamente.

Las computadoras discutidas en esta sección, desde el MARK I al IBM 704, son representativos de la primera generación de computadoras. Eran máquinas grandes, extremadamente voluminosas, que eran difíciles de programar y limitadas en su rango de actividades. El componente más usado en la construcción de las computadoras de la primera generación fue el tubo de vacío, que generaba gran cantidad de calor y consumía grandes cantidades de energía eléctrica.

eniac computador

Uno de los primeros usuarios de la computadora ENIAC fueron las fuerzas armadas de EE. UU. Esta computadora, el primer dispositivo completamente eléctrico construido, fue producto del trabajo de Mauchly y Eckert. (UPI.)

HISTORIA: LA SEGUNDA GENERACIÓN DE COMPUTADORAS:

Las diferencias entre la primera y la segunda generación de computadoras fueron su construcción y las capacidades operativas que proporcionaban.

Las computadoras de la segunda generación estaban construidas con transistores, pequeños componentes eléctricos desarrollados en los laboratorios Bell en 1947 y perfeccionados a lo largo de 12 años de trabajo. El transistor era más pequeño y fiable en el tubo de vacío y ofrecía mayor velocidad interna de proceso, medida en microsegundos (millonésimas de segundo).

Una de las tecnologías perfeccionadas con la segunda generación de computadoras fue el almacenamiento en cinta magnética, originalmente introducido con la primera generación de mediados de los 50. Los datos se grababan en cintas magnéticas de la misma manera en que se graba la música en su grabadora casera. Las cintas magnéticas ofrecían a los usuarios la capacidad de almacenar grandes cantidades de datos en un medio que era rápidamente accesible.

Durante el período de los sistemas de la segunda generación, los fabricantes hicieron hincapié en el desarrollo de lenguajes de programación menos técnicos que fueran más fáciles de emplear para los usuarios. Los lenguajes introducidos durante el período de 1958 a 1963 incluyen lenguaje ensamblador, FORTRAN y COBOL; el FORTRAN fue aplicado a los problemas científicos y el COBOL fue diseñado para uso en negocios.

El concepto de separar las actividades científicas y de negocios, fue aplicado también a las computadoras de la segunda generación. Dos de los mayores sistemas de esta categoría fueron las series IBM 1401 e IBM 1600. Las series 1401 estaban diseñadas para realizar operaciones de proceso de datos que involucraban datos numéricos y alfabéticos. Las series 1600 tenían asignadas aplicaciones científicas en las que se empleaban principalmente datos numéricos. Cada tipo de computadora era diseñada para uso restringido de un área específica.

Es conveniente en este momento presentar y definir los siguientes términos relacionados con el manejo de datos sobre computadoras. Hardware es el soporte físico que permite el procesamiento de los datos. Software consiste en programas de computadora que dirigen al hardware en la realización de sus tareas informáticas. Para que una computadora lleve a cabo cualquier tarea, se la debe suministrar una serie de instrucciones en forma de programa. Software es el término general aplicado a los diversos programas que pueden ser usados para el tratamiento informático de los datos.

HISTORIA: TERCERA GENERACIÓN DE COMPUTADORAS:

Como las dos generaciones anteriores, la tercera generación de computadoras estuvo marcada por un gran cambio en la tecnología. La construcción de la tercera generación de computadoras se basó en los circuitos miniaturizados, un producto lateral del esfuerzo espacial americano. Estos circuitos avanzados reemplazaron el cableado convencional asociado con los primeros sistemas de computadoras y ofrecieron mayores velocidades internas. Las computadoras de la tercera generación fueron capaces de alcanzar velocidades operacionales de nanosegundos (mil-millonésima de segundo), procesando muchos millones de instrucciones en un solo segundo.

Fue con la aparición de los sistemas de la tercera generación, cuando las computadoras comenzaron su aparición en todos los aspectos de la sociedad americana. Cuando las computadoras habían sido poco usadas, ahora se hacían importantes herramientas de organizaciones que manejaban todo tipo de datos. El sistema computador de la compañía llegó a ser una de las primeras cosas consideradas cuando se querían promover los negocios, implicando la puesta al día de la organización y su capacidad de servir cada necesidad del cliente.

Uno de los mayores sistemas de computadoras que aparecieron durante este período, fue el sistema IBM 360. Fue la amplia aceptación del sistema 360 y su uso con éxito en todas las áreas de la ciencia y los negocios, lo que hizo de él un hito en la tercera generación de computadoras. El sistema 360 representaba tal cambio respecto del hardware de la segunda generación, que fue clasificado como una computadora de propósito general. Fue diseñado para llevar a cabo actividades de procesamiento científicas y de negocios. Su diseño permitía a los usuarios la flexibilidad de realizar el amplio rango de actividades que deben emprender las modernas corporaciones.

Una importante unidad hardware, que complementó a la tercera generación de computadoras, fue el disco magnético. El disco magnético supuso un cambio significativo respecto a todos los dispositivos de almacenamiento anteriores, ya que permitía el acceso aleatorio a los datos contenidos en los archivos de las computadoras. Previamente, los datos sólo podían ser almacenados secuencialmente, y a un registro individual sólo podía accederse después de que todos los registros anteriores hubieran sido explorados.

Usando técnicas de almacenamiento en disco, los programadores pudieron acceder a elementos específicos de los datos directamente, sin involucrar otros registros de este archivo. Por tanto los archivos de las computadoras podían componerse en series de registros, con cualquier registro accesible e independientemente vía disco magnético.

El potencial de tratamiento de datos ofrecido por los discos magnéticos fue inmediatamente reconocido en el área de los negocios. Las empresas que previamente estaban limitadas por la incapacidad de acceder a los datos directamente, ahora podían servir inmediatamente a sus clientes; el deseo de los ejecutivos de información más rápida podía ser satisfecho ahora de una manera realista.

La nueva capacidad se aplicó a los sistemas de reserva de billetes aéreos.

Los sistemas anteriores necesitaban días para confirmar las reservas de los clientes, siendo gran cantidad del manejo de datos externa a la computadora. Con el soporte del disco, fue posible responder a las peticiones de reserva de los clientes mientras éstos esperaban al teléfono.

Se consiguieron también grandes avances en la transmisión de datos entre sistemas de computadoras y usuarios localizados a muchos kilómetros de distancia. Los datos de las computadoras se podían transmitir por líneas telefónicas y por microondas a centros de computadoras, proporcionando así un soporte de procesamiento de alta velocidad a las organizaciones extensamente distribuidas. El término telecomunicaciones, se introdujo para describir las actividades relacionadas con la transmisión de datos informáticos a través de líneas de comunicación.

IBM 360 generacion de computadoras

El sistema IBM 360 fue una importante computadora de la tercera generación.

Los fabricantes de computadoras se dieron cuenta rápidamente de que los usuarios requerían lenguajes de programación más adecuados a sus necesidades, con características eficaces no encontradas en los lenguajes de la segunda generación.

Los lenguajes de programación tenían que ser aprendidos más rápidamente, entendidos y ayudados por documentación adecuada para describir su uso. Asimismo los fabricantes se dieron cuenta de que si los lenguajes de programación eran más fáciles de usar y aprender, habría más gente atraída por la computadora y potencialmente podrían adoptar su uso. Las raíces de la revolución actual del uso de la computadora en la casa y en los negocios están en estas realizaciones.

Dos lenguajes que ganaron gran preeminencia con el hardware^de la tercera generación, fueron FORTRAN y COBOL. FORTRAN fue el lenguaje preferido de la comunidad científica, ya que su formato algebraico era adecuado para expresar fórmulas y secuencias para resolver problemas. COBOL se desarrolló para las necesidades específicas de la comunidad de los negocios, permitiendo directamente la manipulación de datos almacenados en archivos de computadora y la preparación de informes impresos.

Su formato, similar al inglés, contrastaba fuertemente con el formato algebraico del FORTRAN, y permitía a la gente del mundo de los negocios, no familiarizada con conceptos matemáticos, a entender el software relacionado con sus actividades. Este fue un factor importante en la amplia aceptación que tuvo en el citado círculo de profesionales.

discos magneticos

La aparición de los discos magnéticos significó el auge de las computadoras en los negocios y las hizo una importante herramienta de procesamiento de datos.

La oleada de actividades relacionadas con las computadoras que surgieron como consecuencia de la tercera generación, se centró en las necesidades de software del usuario individual. Mucha gente estaba interesada en generar su propio software pero no tenían ni el deseo ni la inclinación a trabajar con los lenguajes entonces existentes. Además, los usuarios querían interactuar directamente con la computadora mientras desarrollaban su software.

Fueron estos requerimientos los que llevaron al desarrollo del lenguaje de programación BASIC.

El BASIC está considerado como un lenguaje interactivo, ya que los usuarios pueden interactuar directamente con la computadora instrucción a instrucción a través de la terminal. Un usuario sentado ante el teclado del terminal introduce las instrucciones requeridas y observa inmediatamente su efecto según se procesan estas instrucciones.

Dos términos asociados con el uso de un lenguaje interactivo son en línea (on-line) y teleproceso. Los dispositivos terminales en línea transfieren directamente datos entre el usuario y la computadora. El teleproceso implica actividades de telecomunicación y proceso de datos, donde intervienen pantallas similares a las de televisión. Estas pantallas como las de televisión se llaman tubos de rayos catódicos (CRT).

HISTORIA: CUARTA GENERACIÓN DE COMPUTADORAS

A finales de la década de los setenta se produjo una nueva convulsión en el mundo de la informática: el nacimiento y posterior utlización masiva del microprocesador. También se perfeccionaron notablemente las unidades auxiliares de almacenamiento y comunicación.

Esta es la generación vigente en la actualidad, en la que la microelectrónica ha volcado toda su innovación en el hardware de los ordenadores aportando circuitos integrados de media, alta y muy alta escala de integración, caracterizados por una elevadísima fiabilidad y alta velocidad de operación. Lo que menos ha variado, al menos tan sustancialmente como lo hizo en anteriores saltos generacionales, son los procedimientos de explotación de la máquina.

El protagonista indiscutible de esta cuarta generación es el ordenador personal, cuyas prestaciones son equiparables a las de los miniordenadores e incluso grandes equipos operativos de hace muy pocos años. El ordenador personal es el responsable de que la informática haya logrado la enorme popularidad de que goza en nuestros días.

La presencia del ordenador en la mesa de trabajo de muchos profesionales, e incluso en millones de hogares, es un hecho que ha pasado de inimaginable a plena realidad cotidiana.

EL CHIP DE SILICCIO:

La aparición del chip de silicio señaló el siguiente gran paso en la construcción de la computadora. Sin embargo, una falta de consenso entre parte de los expertos en computadoras ha dejado sin aclarar la cuestión de si el chip constituye la cuarta generación de equipos de computadoras. Aparte de esta controversia, el chip ha estado detrás de los perfeccionamientos y ha sido el componente más importante de la construcción de las actuales computadoras.

Una consecuencia del chip fue una mayor reducción del tamaño del hardware. Los chips actuales empaquetan literalmente miles de circuitos; un chip puede contener instrucciones de programa o retener miles de datos. Las computadoras que una vez ocuparon una habitación entera pueden construirse ahora en el espacio de un escritorio de oficina.

El sistema IBM 370 es uno de los sistemas que usa la tecnología de los chips. La figura 1.7 ilustra el sistema 370 y uno de los chips en su construcción. El sistema 370 en sus diferentes nodelos es capaz de proporcionar soporte informático a grandes y pequeñas organizaciones. Grandes cantidades de almacenamiento en disco, así como funciones de telecomunicación, son características del sistema IBM 370.

Otro tipo de computadora que tuvo importancia en los años 70, fue la minicomputadora. Las minicomputadoras son más pequeñas que los sistemas de computadoras convencionales pero ofrecen capacidades de procesamiento similares a un precio competitivo. Las minicomputadoras fueron introducidas inicialmente en 1965 por Digital Equipment Corporation pero alcanzaron amplia aceptación cuando los procesadores de datos descubrieron su limitado pero efectivo potencial de procesamiento. Ofrecen las mismas características operativas en los grandes sistemas pero en un grado menor.

La figura de abajo muestra las primitivas capacidades de proceso de discos y cintas magnéticas de las mini-computadoras. La microcomputadora (o computadora casera) es otro resultado de la tecnología del chip. Los aspectos de proceso fundamentales de una computadora se reproducen en la intrincada circuitería del chip. La microcomputadora puede usarse tanto para negocios como para actividades de recreo en casa. El principal lenguaje de programación usado en microcomputadoras es el BASIC.

https://historiaybiografias.com/archivos_varios5/discos_magneticos1.jpg

Las antiguas minicomputadoras poseían las mismas características operativas que los grandes sistemas. Tanto las cintas como los discos magnéticos pueden ser usados en los sistemas minicomputadores para almacenar grandes cantidades de datos.

Las microcomputadoras ofrecen también capacidad de tener almacenamiento en cintas y discos. Pequeñas cintas de cásete ofrecen almacenamiento secuencial de datos en cinta magnética. Discos pequeños y flexibles, llamados floppy disks o disquetes, proporcionan las operaciones de almacenamiento en disco en las microcomputadoras. Estos pequeños sistemas poseen también CRT con pantallas de color y muchos tipos de dispositivos impresores. Muchos tipos de software para negocios y entretenimientos son accesibles comercialmente para computadoras.

Tecnología moderna de las computadoras de los años 90:

Continuando el patrón marcado por las generaciones anteriores, las computadoras de la década del 90 se han hecho más rápidas, pequeñas y fiables. Los dispositivos que apoyan a las computadoras actuales se han hecho igualmente sofisticadas y complejas. Las tecnologías desarrolladas en otros campos se han aplicado a producir nuevos dispositivos para completar las capacidades de computación existentes. Los dispositivos resultantes han acelerado el flujo de los datos de la computadora y añadido nuevas dimensiones al proceso de la información.

Muchos dispositivos computadores han incorporado láseres de baja potencia como parte de sus operaciones. Las impresoras que usan el láser han alcanzado velocidades de hasta 21.000 líneas impresas por minuto. Otro tipo de impresora de alta velocidad capaz de preparar múltiples informes en minutos utiliza la fibra óptica para transmitir y registrar datos. Con la fibra óptica los datos se transmiten en forma de impulsos de luz a través de hilos hechos de silicio, aumentando así la velocidad de operación del dispositivo.

La industria de las computadoras ha incorporado satélites a sus servicios de comunicación de datos. Muchas redes de computadoras usan satélites para transmitir rápidamente datos entre continentes y oficinas centrales ampliamente dispersas. En algunas transmisiones por satélite se usan láseres de baja potencia para transmitir y guardar datos temporalmente.

Aparecieron los primeros servicios para transmisión digital a alta velocidad, reservados sólo para datos de computadora, funcionando con centros de satélite. Las comunicaciones por satélite representan algunas de las actividades de telecomunicación más importantes de las hoy utilizadas.

LOS PRIMEROS ALMACENAMIENTOS MASIVOS DE DATOS:

La llegada del chip no ha significado el fin de la investigación en el área del almacenamiento de datos. En 1979 Motorola Corporation presentó un chip que contenía el equivalente a 68.000 transistores. Al cabo de dos años un chip de aproximadamente 1/2 pulgada cuadrada y capaz de almacenar 72.000 datos fue presentado por IBM. La investigación está actualmente detrás de desarrollar un chip microminiaturizado que poseería una capacidad de almacenamiento multimillonario y funcionaría en milmillonésimas de segundo.

Aunque la investigación sobre microchips está en su etapa de desarrollo, otras técnicas de almacenamiento están empezando a demostrar que pueden tener su aplicación práctica. Las memorias de burbujas magnéticas y el dispositivo de efecto Josephson están empezando a ser prcrnetedores. El concepto de memoria de burbujas magnéticas se relaciona con el movimiento de burbujas electrónicas a través de una superficie magnética especial. El movimiento de las burbujas crea unos impulsos que son traducidos por la computadora a un formato de datos codificados.

El dispositivo de efecto Josephson está usándose actualmente en prototipos de computadoras para perfeccionar su funcionamiento. Este dispositivo de conmutación es muy prometedor por su capacidad de mover los datos dentro de la computadora a velocidades extremadamente altas. El dispositivo de Josephson ha llegado a alcanzar velocidades del rango del picosegundo (billonésima de segundo). Estas altísimas velocidades, aunque actualmente

Cómo se mide la memoria de un ordenador

La forma de medir la memoria o capacidad de almacenamiento de información es idéntica para todas las unidades de un ordenador. Basta con expresar el número de BITS que se pueden almacenar para dar una medida exacta de la capacidad de memoria, tanto en el caso de la memoria principal como en el de la memoria auxiliar (cintas magnéticas, discos…). En cualquier caso, debido a la lógica con la que se almacenan los datos y a los órdenes de magnitud que sería preciso manejar, el bit no resulta una unidad apropiada. Por ello, se adoptan como unidades de medida determinados múltiplos del bit o unidad elemental de información binaria.

Estas unidades son:
Palabra
Se denomina palabra a toda cadena de bits utilizada para representar un único ente de información (carácter alfabético, cifra numérica…).

Byte (octeto)
Palabra constituida por un conjunto de oche dígitos binarios o bits. En algunos casos el octeto puede considerarse como una subdivisión del formato de palabra con el que opera determinado ordenador; así, puede hablarse de palabras de 2 y 4 octetos, según estén formadas por 16 ó 32 bits.

Kilo-byte (KB)
Un Kbyte equivale a 1.024 octetos o bytes (esto es: 8.192 bits). El hecho de corresponder a 1.024 y no a 1.000 se debe a que un Kbyte es igual a 210 (la base del sistema binario elevada s exponente 10). Esta unidad es la más comúnmente utilizada para medir la capacidac de almacenamiento de la memoria de un ordenador.

Megabyte (MB)
Para la representación de grandes volúmenes de memoria, como la que corresponde a un disco magnético rígido, el Kbyte resulta una unidad muy reducida. De ahí que se haya hecho necesario definir otra unidad de rango superior, el «Mbyte», que equivale a un millón de octetos o bytes.

LAS TAREAS QUE PUEDE REALIZAR UN COMPUTADOR

Procesamiento de información Preparación de nóminas y facturas

Mantenimiento de la información de inventarios

Mantenimiento de las cuentas de clientes

Procesamiento técnico de la información de referencia por medios de comunicación y bibliotecas públicas

Cálculo del impuesto a la renta.

Mantenimiento de los registros estudiantiles en las universidades

Mantenimiento de la información de vuelos y reservaciones en las aerolíneas.

Catalogación de los suministros de sangre en bancos regionales de sangre

Mantenimiento de cuentas corrientes en los bancos

Edición y reproducción de manuscritos mecanografiados

Mantenimiento de los registros criminales por los servicios de investigación

Mantenimiento de los registros de impuestos a la propiedad en una municipalidad Presupuesto de organizaciones e individuos

Registro de la distribución monetaria por las agencias gubernamentales de bienestar social

Modelos matemáticos

Análisis estadísticos de los datos de censos, datos biológicos, datos de ingeniería, etc.

Planeamiento de la producción y control de inventarios

Diagnóstico médico

Análisis orbital para satélites

Administración de la cartera financiera

Localización de estaciones de bomberos en una área urbana

Simulación de la decadencia económica en una ciudad

Planeamiento de dietas alimentarias en instituciones

Pronóstico estadístico

Planeamiento educativo y planeamiento de la ruta de buses escolares Diseño de sistemas de tráfico en autopistas y aeropuertos

Análisis químico

Diseño de sistemas de energía solar

Planeamiento, programación y control de proyectos complejos (tales como la construcción de un submarino, un edificio para oficinas o un estadio)

FECHAS HISTÓRICAS CLAVES DE LA HISTORIA DE LA COMPUTACIÓN:

Fecha desconocida  Abaco

1642 Machine arithmétique de Pascal

1671 Calculadora de Leibniz

1720 Tiras de papel perforadas de Bouchon para tejer

1801 Telar automático de Jacquard

1812 Máquina de diferencias de Babbage

1820 Calculadora de Thomas, disponible comercialmente

1833 Máquina analítica de Babbage

1830 Análisis de Lady Lovelace de las ideas de Babbage

1884 Máquina sumadora de Burroughs con capacidad de imprimir

1885 Calculadora de Felt capaz de realizar cálculos con varios dígitos

años 1880 y 1890 Trabajo de Hollerith en el censo de EE. UU.

años 1880 y 1890 Utilización de las tarjetas perforadas de Hollerith y de equipo de cálculo para analizar los datos del censo

1907-1910 Nuevo sistema de procesamiento con tarjetas de Power para el censo de EE. UU.

años 1930 a 1956 Primera generación de computadoras

1934 Trabajo de Atanasoff en Iowa

1937 Computadora Mark I de Aiken. Harvard

1939 Computadora Atanasoff-Berry (ABC)

1941 Colussus. británico

1946 Mauchly y Eckert inventan el ENIAC en la Universidad De Pennsylvania

1949 Concepto de programa almacenado de Von Neumann e invención del EDSAC

1951 Mauchly y Eckert inventan el EDVAC en la Universidad de Pennsylvania

1951 UNIVAC I

1953 IBM 701

1954 IBM 650 mediados 1950 IBMf702 y 704 mediados 1950 Cinta magnética

1957 a 1963 Segunda generación de computadoras

últimos 1950 a primeros Series IBM 1401 y 1600 1960

1964 a primeros 1970 Tercera generación de computadoras mediados 1960 a primeros IBM System/360

1970 mediados 1960 Disco magnético

1965 Mínicomputadoras primeros

1970 Chip de silicio primeros 1970 IBM System/370 últimos

1970 Fibras ópticas últimos

1970 Microcomputadoras

1979 Chip microprocesador últimos 1970 Memoria burbujas magnéticas

1980 Dispositivo de conmutación de efecto Josephson años 1980 Computadoras de conexión compatible
años

1990 Primeras Experiencias de Inteligencia artificial

2000 Internet

GLOSARIO PRIMITIVO DE COMPUTACIÓN:

Almacenamiento en cinta magnética. Una técnica de almacenamiento en la que los datos son accedidos secuencialmente desde los ficheros grabados en la superficie de la cinta magnética.

BASIC. Un lenguaje de programación que permite al usuario interactuar directamente con la computadora.

COBOL. Lenguaje de programación asociado fundamentalmente con las aplicaciones comerciales.

Compatibilidad de conexión. La propiedad de la mayoría de computadoras modernas que permite que los dispositivos funcionen juntos adecuadamente por medio de una simple interconexión.

Computadora de propósito general. Una computadora capaz de tratar problemas científicos y comerciales.

Concepto de programa almacenado. El concepto debido a Von Neumann que propone que el programa y sus datos estén en la computadora, controlando su operación.

CRT. Letras iniciales de cathode ray tube (tubo de rayos catódieos), usadas para describir un terminal que muestra datos de forma similar a los televisores.

Chip de silicio. El componente de la computadora usado para construir computadoras posteriores a la tercera generación. En él hay miles de circuitos para guardar datos o instrucciones del programa.

Disco magnético. Técnica de almacenamiento en la que los registros individuales de datos pertenecientes a ficheros son accedidos directamente de forma aleatoria.

Disquete. Pequeño disco flexible utilizado como memoria en sistemas de microcomputadora.

En línea. La capacidad de un usua-i o de tener acceso directo al • >mputador para realizar el procesamiento de datos.

Fibras ópticas. Una tecnología en la que se transfieren los datos en forma de impulsos de luz por líneas de comunicación hechas de silicio.

Floppy disk. Sinónimo de disquete.

FORTRAN. Un lenguaje de programación desarrollado en los años 1950 que utiliza formato algebraico y está bien adaptado a las aplicaciones científicas.

Hardware. El término aplicado generalmente a todos los dispositivos en los que se realizan procesamientos informáticos de datos.

Inteligencia artificial (AI). Una técnica de investigación que pretende dar a las computadoras los recursos para tomar decisiones en respuesta a cambios en las condiciones operativas.

Lenguaje interactivo. Un lenguaje de programación que permite a los usuarios comunicarse con la computadora en el procesamiento de datos.

Microcomputadora. El sistema informático más pequeño, construido con chips de silicio y aplicado en el hogar y los negocios.

Minicomputadoras. Computadoras orientadas a tareas, introducidas por primera vez en 1965. y que ofrecen un potencial de procesamiento similar al de los sistemas grandes poro a un precio competitivo.

Primera generación de computadoras. Las primeras series de computadoras eran grandes, voluminosas, difíciles de programar y estaban construidas con tubos de vacío.

Programa. La serie de instrucciones escrita en el lenguaje del computador y que le dirige en sus tareas de procesamiento.

Segunda generación de computadoras. La segunda era impártante de la informática, en fe que las computadoras se cpnstrüían con transistores.

Software. El término aplicado’a los programas que dirigen y:x;ontro-lan el procesamiento de la computadora.

Telecomunicaciones. El uso de alguna forma de línea de comunicación que conecte a los usuarios con la computadora y permita el tratamiento en lineare los datos.

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

HISTORIA DE AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Beneficios de la Era Espacial Mejoras Para La Sociedad

Beneficios de la Era Espacial y Las Mejoras Para La Sociedad

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite «oír» los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS DE CEMENTO CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso «Liberty»: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero «Liberty»

El «Liberti» fue el primero de los cargueros fabricado en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos «Liberty» diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese «caso de emergencia», todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran «volcadas» y botadas de costado. Una rareza notable la constituyeron los llamados «barcos de cemento». Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir «el barco de cemento», después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Los Sucesos mas importantes del Siglo XX

Los Sucesos Mas Importantes del Siglo XX:Guerras Mundiales,Descolonización,Progreso Científico

sucesos mundiales

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la «gran guerra», como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

linea divisoria

sucesos mundiales

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra. Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la «madre Rusia» durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó «gran Guerra Patriótica». (picar en la foto para mas información)

linea divisoria

sucesos mundiales

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal. Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

linea divisoria

Avances Cientificos Despues de la Guerra Television Color TV Color

Avances Científicos Después de la Guerra
Televisión Color TV Color

La televisión en colores es uno de, los astros domésticos más jóvenes de la era electrónica. Y, a pesar de haberse vendido inicialmente a precios astronómicos, ese nuevo juguete va, poco a poco, penetrando en las casas de los estratos medios. No obstante, la calidad técnica de esas transmisiones aún no ha alcanzado un punto «óptimo» de realización tecnológica, y los costos de producción continúan siendo bastante elevados, lo que impide que ella ocupe definitivamente el lugar conquistado por su rival en blanco y negro.

Al respecto, investigaciones recientes estudian la posibilidad de substituir f/ tubo de la TV en colores —que representa cerca del 50 al 60 % del costo del aparato— por un sistema menos costoso, como pantallas «planas» o el cristal líquido, usado ya en calculadoras de bolsillo y relojes electrónicos.

Los Primeros Pasos….La Televisión
La idea de utilizar ondas de radio para transportar información visual se remonta a los primeros tiempos de la radio, pero no llegó a ser factible hasta 1926. El principio básico es fragmentar la imagen en una serie de puntos que entonces se transmiten y muestran en una pantalla tan rápidamente que el ojo humano los percibe como una imagen completa.

En 1926 el inventor escocés John Logie Baird (1888-1946) mostró una televisión basada en el método mecánico de repasar una imagen en líneas de puntos de luz. De todas formas, el sistema de Baird tenía poco futuro y fue rápidamente sustituido por un sistema totalmente electrónico. Este último fue desarrollado por Vladimir Zworykin (1889-1982), ingeniero de origen ruso pero que trabajaba en EUA. Su primera cámara útil, hecha en 1931, enfocó la imagen sobre un mosaico de células fotoeléctricas (ver p. 36-37). El voltaje inducido en cada célula fue una medida de la intensidad de luz en este punto, y podía transmitirse como una señal. Una cámara de televisión moderna opera esencialmente de la misma manera, midiendo la intensidad de luz en cada punto de la imagen. Esta información se codifica y transmite entonces en la onda de radio.

En el extremo receptor, la señal tiene que ser decodificada. Un televisor es básicamente un tubo de rayos catódicos, en el cual un «cañón» dispara un haz de electrones hacia una pantalla luminescente. Cuando chocan con ella, la pantalla se ilumina. Para reconstruir la imagen en su totalidad, el haz se mueve de lado a lado en una serie de líneas (625) en los televisores, cubriendo toda la pantalla en 1/25 segundos.

Historia Evolución Tecnológica Post Guerra Mundial
LA TELEVISIÓN COLOR: Los principios de la moderna televisión electrónica estaban bien establecidos hacia mediados de los años 30, época en que tanto en EE.UU. como en Gran Bretaña se realizaban transmisiones regulares, aunque para una audiencia relativamente reducida. La definición era mala, la imagen era titilante y las técnicas de realización eran primitivas, pero aun así se ofrecía un servicio aceptable. Los adelantos en este campo quedaron bruscamente detenidos por el estallido de la guerra en Europa.

Una vez finalizado el conflicto, las investigaciones continuaron más o menos desde el punto donde habían quedado en 1939. La calidad mejoró considerablemente gracias a la aplicación de algunos adelantos en electrónica logrados durante la guerra, pero uno de los rasgos básicos seguía inalterado: la imagen era en blanco y negro.

No había en realidad dificultades técnicas, ya que los problemas de la televisión en color son básicamente los mismos que los de la fotografía en color, que se habían superado mucho tiempo antes. En esencia, la imagen transmitida debía separarse en tres imágenes, una roja, otra verde y una tercera azul, que luego se reproducirían, superpuestas, en la pantalla del receptor.

De manera bastante sorprendente, teniendo en cuenta la determinación con que se abandonaron los sistemas fotomecánicos de televisión en los años 30, el primer sistema adoptado (diseñado por Peter Goldmark en 1951, en Estados Unidos) consistía en un disco giratorio con filtros de color, colocado delante del objetivo de la cámara. Sin embargo, en 1953, la compañía RCA perfeccionó un sistema completamente electrónico por el cual, el rayo de luz transmitido a través del objetivo de la cámara se divide en sus componentes rojo, verde y azul mediante espejos selectores del color. Las tres imágenes se transforman entonces en una señal que se transmite en dos modalidades. La primera, denominada luminancia, depende del brillo de la imagen.

La segunda, llamada crominancia, está relacionada con el color. En el receptor, la señal de crominanciaes recibida por tres cañones de electrones cuyos rayos barren la pantalla, activando un gran número de puntos fosforogénicos que producen una luminosidad roja, verde o azul. Como los sistemas de luminancia y crominancia están separados, las transmisiones de televisión en color pueden ser recibidas también por receptores de blanco y negro.

En 1960, la televisión ya no era una novedad en el mundo occidental y el televisor se había convertido en un elemento corriente entre los aparatos domésticos. El número de receptores ascendía para entonces a unos 100 millones, el 85 % de los cuales se encontraban en Estados Unidos.

En 1970, la cifra había aumentado a más del doble, con unos 230 millones de aparatos. A principios de los años 80, los televisores en color habían desplazado a los aparatos de blanco y negro. Para entonces, había en casi todos los hogares de Estados Unidos (98 %) por lo menos un televisor, que era en color en el 80 % de los casos.

Estas cifras se refieren. naturalmente, a los receptores domésticos y no tienen en cuenta los numerosos sistemas de televisión muchos de circuito cerrado) utilizados con fines especiales: por ejemplo, dispositivos antirrobo en los comercios, demostraciones de operaciones quirúrgicas a estudiantes y observaciones de la superficie terrestre desde satélites.

PARA SABER MAS SOBRE LOS COMIENZOS DE LA TELEVISIÓN:

En 1925, el año en que el inventor escocés John Logie Baird se convirtió en la primera persona que transmitió imágenes en movimiento a un receptor lejano, solo un puñado de ingenieros y hombres de negocios de amplios horizontes habían oído hablar de la nueva tecnología que iba a transformar la cultura.

No obstante, entre estos primeros visionarios el desarrollo de la televisión todavía estaba en estado embrionario. Trabajando en el laboratorio casero de su ático londinense, Baird, desconocido y pobre, construyó una cámara que registraba los objetos con un haz concentrado de luz. Utilizó una célula fotoeléctrica para convertir la luz y la sombra del objeto registrado en electricidad y fabricó un receptor que realizaba el proceso inverso.

El 2 de octubre registró la cabeza de un muñeco y observó con alegría que su cara se reproducía temblorosa en la pantalla que había colocado en la habitación contigua. Corriendo hacia un edificio del otro lado de la calle, le pidió a un portero que se sentara frente a su cámara. El joven William Taynton fue la primera persona televisada.

El sistema de Baird consistía en un aparato mecánico rudimentario que utilizaba discos con agujeros para registrar el objeto, deshacer la luz en rayos y convertir los en una imagen proyectable del objeto original. Funcionaba, pero las temblorosas imágenes provocaban dolor de cabeza al espectador.

Mientras Baird trataba de mejorar su modelo mecánico, otros pioneros trabajaban en sistemas electrónicos. La televisión electrónica ya había sido tratada en teoría por el físico británico Campbell Swinton en 1908. Swinton escribió: «Debe descubrirse algo apropiado. Creo que la visión eléctrica a distancia entra en el reino de lo posible».

Los descubrimientos a los que aludía fueron realizados por Vladimir Kosma Zworykin y Philo T. Farnsworth. El físico norteamericano nacido en Rusia y el estudiante de Utah desarrollaron las primeras lámparas de imágenes. En 1927, Farnsworth presentó un sistema sin los discos de Nipkow en los que confiaba Baird. Con la invención de Farnsworth, el reino de lo posible ya era probable.

Virus Informaticos Efectos de los Virus Clasificacion Tipos Antivirus

Virus Informáticos Efectos ,Clasificación ,Tipos y Antivirus

LOS VIRUS INFORMÁTICOS: Lamentablemente en algún momentos hemos pasados por estos momentos molestos, en donde nos damos cuenta que nuestro ordenador hace cosas muy raras, «nos ignora» y hasta a veces nos percatamos que hemos perdido gran o toda la información que venimos almacenando durante años en el disco duro. Pero cuando nos damos cuenta, ya es tarde y todo está perdido, nos agarra un ataque de ira, de impotencia y solo apagamos rápidamente el ordenador, pero y ahora que hacemos?…

virus informaticos

En realidad, la gran mayoría de los  virus de computadoras no son tan dramáticos, pero si todos tienen algo en común, la mayoría  están diseñados para ocultarse, hacer su trabajo en silencio y evitar su detección por el mayor tiempo posible.

Han tenido un gran auge y popularidad a partir de los años 90, cuando empezaron a difundirse a través de los correos masivos vía Internet, por lo que han protagonizado noticias en todos los medios según su fama para hacer estragos. Han provocado pérdidas de miles de millones de dólares por la inactividad que generaban, y como decíamos antes la pérdida de valiosos datos.

Aun así, muchos usuarios de computadoras no están conscientes de los peligros que imponen los virus y no realizan ningún esfuerzo para proteger sus computadoras e información. Ésta es la principal razón por la cual los virus continúan siendo exitosos.

¿Qué es un virus de computadora?
Un virus es un programa parasitario que infecta a un programa legítimo, el cual normalmente se conoce como el anfitrión. Para infectar el programa anfitrión, el virus modifica al anfitrión para almacenar una copia del virus. Muchos virus están programados para hacer daños una vez que han infectado al sistema de la víctima. Como verá más adelante, un virus puede estar diseñado para hacer distintos tipos de daño. Sin embargo, la capacidad de hacer daños no es lo que define a un virus.

Para que un programa califique como virus debe ser capaz de replicarse (copiarse a sí mismo). Esto puede significar que se copie a si mismo en distintos lugares de la misma computadora o busque la manera de llegar a otras computadoras, por ejemplo, infectando discos o viajando a través de las redes. Los virus pueden estar programados para replicarse y viajar en distintas maneras.

Algunas formas comunes de contraer un virus son las siguientes:

1-Recibir un archivo infectado que está adjunto a un mensaje de correo electrónico o un virus que está oculto dentro del mensaje. El correo electrónico se ha convertido en el método más común de propagación de virus, especialmente ahora en que tantas personas utilizan Internet para intercambiar mensajes de archivo. Los virus también pueden ser propagados a través de salones de charla en línea y programas de mensajería instantánea.

2-Descargar un archivo infectado en su computadora a través de una red, un servicio en línea o Internet. A menos que cuente con un software antivirus que inspeccione cada archivo entrante para ver si tiene virus, es probable que no sepa si ha descargado un archivo infectado.

3-Recibir un disco infectado (un disco flexible, un CD creado en una unidad CDR, un disco flexible de alta capacidad y otros) de otra persona. En este caso, el virus podría estar almacenado en el sector de inicio del disco o en un archivo ejecutable (un programa).

4-Copiar a su disco duro un archivo de documento que está infectado con un virus de macro. Un documento infectado podría ser copiado desde otro disco o ser recibido como un archivo adjunto en un mensaje electrónico.

¿QUE PUEDE HACER UN VIRUS?
La mayoría de los virus de computadoras son relativamente inofensivos; su propósito es molestar a sus víctimas en lugar de causar un daño específico. Este tipo de virus se conocen como benignos. Otros virus en realidad son maliciosos y pueden ocasionar un gran daño a un sistema de computación si se les permite ejecutarse.

Los virus pueden estar programados para hacer distintos tipos de daños, incluyendo los siguientes:
1-Copiarse a sí mismos en otros programas o áreas de un disco.

2-Replicarse tan rápida y frecuentemente como sea posible, saturando los discos y memoria del sistema infectado y ocasionando que el sistema no se pueda utilizar.

3-Desplegar información en la pantalla.

4-Modificar, corromper o destruir archivos seleccionados.

5-Eliminar el contenido de discos enteros.

6-Permanecer dormidos durante un periodo específico o hasta que una condición particular se cumpla y entonces activarse.

7-Abrir una «puerta trasera» en el sistema infectado, lo cual permite que otra persona acceda e incluso tome control del sistema a través de una red o conexión a Internet. Este tipo de virus en realidad puede ser un tipo de programa llamado Caballo de Troya y se puede utilizar para convertir un sistema infectado en un «zombi», que puede ser utilizado por el autor del virus para atacar otros sistemas.

Por ejemplo, utilizando virus para crear una gran cantidad de sistemas zombi, el autor puede utilizarlos para enviar miles de solicitudes a un servidor Web específico, haciendo que deje de funcionar. Este tipo de ataque también se conoce como «ataque de denegación de servicio (DOS)» o «ataque distribuido de denegación de servicio (DDOS)», debido a que evita que el servidor proporcione servicios a los usuarios.

Esta lista no está completa. Los programadores de virus pueden ser extremadamente creativos y muchos crean virus para realizar un tipo de tarea específica, algunas veces teniendo en mente una víctima en particular. No obstante, necesita proteger su sistema de todos los tipos de virus debido a que prácticamente cualquiera de ellos puede atacarlo en cualquier momento, cuando se reúnen las circunstancias apropiadas.

Los virus pueden parecer un problema importante para los usuarios individuales dé computadoras. Sin embargo, para las corporaciones, los virus pueden ser devastadores en términos de la pérdida de datos y productividad. Las compañías de Estados Unidos pierden miles de millones de dólares todos los años en daños ocasionados por los virus.

La mayoría de los costos provienen del tiempo y esfuerzo que se requiere para localizar y eliminar virus, restablecer los sistemas, reconstruir los datos perdidos o corruptos y protegerse en contra de ataques futuros. Pero las compañías también pierden tiempo de trabajo valioso (millones de horas persona al año) debido a que los trabajadores deben esperar sin poder utilizar sus computadoras.

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Adelantos Tecnológicos Post Guerra Mundial

Historia Evolución Tecnológica Post Guerra Mundial
Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación.

Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950

Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo.

Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953.

En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. (imagen abajo)

auto escarabajo wolkwagen

En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.

antigui citroen 2cv

También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

vespa antigua

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles.

La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos.

Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

Resultado de imagen para primeros aviones comerciales historiaybiografias.com

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez.

En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura.

Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado.

Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines.

Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones.

En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional.

Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección.

transistor semiconductor

Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente.

Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia).

Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor.

El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio.

El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX.

El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania.

En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año.

En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento.

Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Los avances tecnologicos aplicados en la vida cotidiana Cientificos

Los Avances Tecnólogicos Aplicados en la Vida Cotidiana

Tecnología en la vida cotidiana: Gracias a las técnicas de producción en masa, los grandes inventos de los ss. XX y XXI forman parte de nuestra vida diaria. La invención de los electrodomésticos llevó a un incremento del tiempo libre en países desarrollados, y el concepto de progreso, en sí mismo, es sinónimo de acceso a las nuevas tecnologías. El microchip tuvo un gran impacto en las comunicaciones desde que Jack Killby y Robert Noy ce lo crearan en 1959, y la nanotecnología combinada con la llegada de Internet facilitó el acceso a la comunicación instantánea global.

LA EVOLUCIÓN TECNOLÓGICA: El ser humano ha recorrido un largo camino desde que el primer Homo sapiens saliera a cazar en África hace millones de años. La tecnología, el uso de materiales naturales y artificiales con un propósito claro, ha progresado enormemente desde el Paleolítico. Aunque es tentador creer que los logros tecnológicos del hombre en los últimos siglos son únicos, es importante mantener una perspectiva histórica.

Como hemos visto en este libro, en los últimos 12.000 años se han experimentado innovaciones revolucionarias para mejorar la vida del hombre. El desarrollo de una herramienta efectiva para matar animales debió de ser revolucionario para el cazador del Neolítico, como nos lo parecen ahora las bombas inteligentes.

El cultivo de cereales en Oriente Medio fue probablemente un acontecimiento de mucha más trascendencia que el desarrollo de los cultivos genéticamente modificados, ya que cambiaron el curso de la historia del ser humano. De manera similar, la llegada de la escritura a Mesopotamia constituye un logro más importante a largo plazo que la aparición del ordenador en tiempos modernos. Son muy numerosos los ejemplos de innovaciones e inventos que han cambiado el curso de la historia de la humanidad.

Sin embargo, la característica común de los tiempos actuales, especialmente desde la Revolución industrial, recae en la velocidad con que la innovación tecnológica se ha diseminado por toda la sociedad. En el siglo XX, la organización de la innovación tecnológica sufrió un cambio profundo. La investigación y el desarrollo ya no se llevaban a cabo de manera individual, sino en grandes organizaciones, como universidades, o laboratorios industriales o gubernamentales. La infraestructura que se necesita hoy para la investigación está mucho más allá del alcance de las personas. Esta tendencia se ha pronunciado especialmente en la segunda mitad del siglo XX, con la institucionalización de la investigación tecnológica y científica.

El siglo XXI trajo aun más cambios en la manera de llevar a cabo las innovaciones tecnológicas. La aparición de Internet y de las comunicaciones rápidas y baratas ha permitido que la investigación se disperse geográficamente, una tendencia que crecerá en los años venideros. La dispersión global de la innovación tecnológica será más rápida y el acceso a tecnologías más avanzadas, especialmente en los bienes de consumo, será más fácil y estará más extendido.

Resulta arriesgado predecir qué tipos de tecnologías aparecerán en el siglo XXI. La creatividad de la mente humana es ilimitada en esencia y, por tanto, solemos equivocamos con las predicciones tecnológicas. No se puede predecir con ningún tipo de certeza qué forma tendrá la tecnología y cómo impactará en la sociedad humana. Después de todo, incluso los científicos más brillantes de principios del siglo XIX no podrían haber imaginado los viajes espaciales ni el microprocesador. Aun así, se puede decir que el progreso tecnológico seguirá avanzando a mayor velocidad en los próximos años y posiblemente hará que la vida sea más fácil para la gran mayoría de la humanidad, con desarrollos revolucionarios en medicina, transporte y comunicaciones.

No obstante, el medio ambiente empieza , protestar, como se hace patente en el calentamiento global y en la disminución de la capa de ozono, por lo que deberíamos ralentizar los avances tecnológicos por el bien de las generaciones futuras. Sí bien en el siglo XXI ya hemos empezado a trabajar por el entorno, deberíamos fomentarlo más en el futuro.

Internet: En 1989 la WWW se inició para el Consejo de Europa de Investigación Nuclear. Nueve años después, un vehículo de seis ruedas, de menor tamaño que una hielera de cervezas, rodaba por la superficie de Marte y fue visto por internet uniendo la imaginación colectiva con la misión Mars Par Finder de la NASA. Al finalizar el 11 de septiembre de 1998, Internet demostraría su eficacia al poner a disposición de millones de usuarios de la World Wide Web, en un simple disco de 3.5 pulgada; en menos de 24 horas, toda la información sobre los escándalos sexuales de Bill Clinton. El forma:: facilitó a sus receptores acceder a cualquier detalle gráfico con sólo oprimir una tecla. Adema; e Reporte Starr, como se conoció al informe sobre el affaire Clinton, tenía la ventaja de estar completo. Ningún otro medio de comunicación lo presentó de esa manera.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letra; escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museo; estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuerna-con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y liste La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza.

Internet constituye un instrumento importante para la movilización de capitales, ya que éste pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Primeros Ordenadores Electrónicos Evolución Histórica

Primeros Ordenadores
Historia de la Computación

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente.

Primeros Ordenadores a Válvulas

Primeros Ordenadores a Válvulas

Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar comentes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

Los primeros ordenadores electrónicos
Una buena forma de determinar la importancia de un adelanto técnico es considerar las consecuencias de su repentina desaparición. Un colapso general y prolongado de los servicios básicos, como el suministro de agua y electricidad, las telecomunicaciones, el transporte público o el sistema de alcantarillado, produciría en poco tiempo el caos y resultaría imposible mantener las condiciones de vida normales.

A fines del siglo XX, otra innovación tecnológica llegó a considerarse entre los elementos esenciales para mantener la normalidad de la vida cotidiana: el ordenador. Originalmente, no era más que un instrumento de cálculo, pero llegó a convertirse en un instrumento sumamente complejo de archivo y recuperación de la información.

Primeros Ordenadores

Primeros Ordenadores Para Uso Militar y Científico

Actualmente forma parte de la vida cotidiana hasta tales extremos que resulta difícil advertir que no existía, en su forma electrónica moderna, en los años de la preguerra y que los económicos ordenadores personales de fines del siglo XX tienen una capacidad mucho mayor que los gigantescos prototipos de los años 40. A fines de los años 80, se calculaba que el mercado mundial de los ordenadores había alcanzado una cifra anual de 100.000 millones de dólares: una hazaña notable para una industria tan joven.

El ASCC (Automatic Sequence Controlled Calculator), construido en Estados Unidos por IBM en 1944, puede considerarse el prototipo original de los ordenadores modernos. Aunque era básicamente un aparato electrónico, contenía muchos dispositivos mecánicos emparentados con los presentes en un extenso linaje de máquinas anteriores, cuya historia se remonta a la máquina de sumar del matemático francés Blaise Pascal, de 1642, y al aparato bastante más complejo del alemán Gottfried Leibniz, construido 30 años más tarde.

El ASCC era un auténtico dinosaurio: pesaba cinco toneladas, tenía 16 m de longitud y contenía 800 Km. de cables eléctricos. Para los criterios actuales, su capacidad de multiplicar dos números de 11 dígitos en 3 segundos resulta poco impresionante, ya que los tiempos de operación de los ordenadores de hoy en día se miden en millonésimas de segundo.

El sucesor del ASCC fue el ENIAC (Electronic Numerícal Integrator and Calculator) que, aparte de algunos conmutadores utilizados para controlar los circuitos, era completamente electrónico. Fue construido en la Universidad de Pennsylvania por J.P. Eckert y J.W. Mauchly, con el propósito original de utilizarlo en tiempo de guerra para calcular tablas balísticas. Sin embargo, no estuvo liste hasta 1946. El ENIAC era también una máquina gigantesca, dos veces más voluminosa que el ASCC. Contenía por lo menos 18.000 válvulas termoiónicas y, al rendimiento máximo, consumía 100 kilovatios de electricidad.

ENIAC

ENIAC

Dispersar el calor resultante era un problema en sí mismo. Para programar el ENIAC, era precise mover conmutadores y hacer conexiones manualmente, mientras que el ASCC se programaba con cintas perforadas. Los dos métodos tenían sus ventajas, pero ambos eran básicamente lentos y tediosos.

Para el siguiente paso, los técnicos volvieron a inspirarse en el siglo XIX, concretamente en la máquina analítica construida por el inventor inglés Charles Babbage en torno a 1830. Sorprendentemente, una de su; más fervientes publicistas fue lady Lovelace, hija de lord Byron, que señaló que muchos cálculos exigían la repetición de una secuencia determinada de operaciones y que sería posible ahorrar tiempo y trabajo si se conseguía que la máquina se ocupara de esos cálculos automáticamente. En efecto, el ordenador debía disponer de una memoria.

Incluso antes, en el siglo XVII, Leibniz había sugerido que para el cálculo mecánico era más sencillo utilizar la notación binaria, en lugar de la decimal tradicional. En esa notación, todos los números se expresar, con dos dígitos, O y 1, y no con los diez utilizados (de-O al 9) en la notación decimal. Para una calculadora electrónica, esta idea resulta particularmente adecuada, ya que corresponde a las dos modalidades eléctricas: «off» y «on».

Estos dos conceptos fueron incorporados por Johr. von Neumann, también de la Universidad de Pennsylvania, en una máquina mucho más avanzada, e. EDVAC (Electronic Discrete Variable Automatic Computer). En este aparato, la «memoria» consistía en pulsaciones sónicas conservadas en una columna de mercurio. A principios de los años 50 apareció ur. dispositivo de memoria más complejo, basado en el hecho de que la dirección de la magnetización en ciertos materiales denominados ferritas se puede invertir cas: instantáneamente, siguiendo la dirección de la corriente eléctrica en un circuito conectado.

Por entonces, el ordenador se estaba adelantando a sus posibilidades: realizaba las operaciones con más rapidez que el ritmo con que la cinta perforada podía suministrarle las instrucciones. El siguiente paso consistió en grabar el programa de operaciones en una cinta magnética, semejante a las utilizadas para la grabador del sonido.

Este adelanto fue incorporado en 1956 a UNIVAC de Remington-Rand, el primer ordenador electrónico disponible en el mercado, ya que los pocos modelos anteriores habían sido construidos para fines especiales a un enorme coste. Por este motivo, el público en general ignoraba casi por completo los adelantos en el mundo de los ordenadores.

La situación cambió considerablemente en 1951 cuando el UNIVAC original, diseñado para procesar la información del censo en Estados Unidos, previo acertadamente la elección de Dwight Eisenhower como presidente.

Evolucion de las Microcomputadoras Historia y Evolucion Tecnologica

Evolución de las Microcomputadoras
Historia y Evolución Tecnológica

microcomputadora

1965
La corporación Honeywell presenta la «computadora para cocina» H316. Es la primera computadora para el hogar y en el catálogo de Neiman Marcus se ofrece a 10 600 dólares.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1970
Ken Thompson y Denis Ritchie
crean el sistema operativo UNIX en Bell Labs. UNIX se convierte en el sistema operativo dominante para aplicaciones decisivas en los servidores, estaciones de trabajo y microcomputadoras complejas

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1971
En 1971, Ted Hoff integró a todos los elementos de un procesador para computadora en un solo circuito integrado de silicio un poco más grande que un cuadro de una pulgada por lado. El resultado de sus esfuerzos es el Intel 4004, el primer microprocesador del mundo disponible en el mercado. El circuito integrado es una computadora de 4 bit que contiene 2 300 transistores, inventados en 1948, que puede ejecutar 60 000 instrucciones por segundo. Está diseñado para que se instale en calculadoras, y se vende a 200 dólares. Intel vende más de 100 000 calculadoras que llevan el microprocesador 4004. Casi de la noche a la mañana, a este circuito integrado se le encontraron miles de aplicaciones, con lo cual se abrió el camino para el mundo orientado hacia las computadoras que conocemos hoy, así como a la producción en masa de microprocesadores para computadora, los cuales contienen en la actualidad millones de transistores. Steve Wozniak y Bill Fernandez crearon una computadora a partir de circuitos integrados que rechazaban las compañías locales de semiconductores. La computadora se llama Cream Soda Computer porque sus constructores bebían bebidas carbonatadas Cragmont mientras la construían.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1972
Dennis Ritchie y Brian Kernighan
crearon el lenguaje de programación C en los Bell Labs. El sistema operativo UNIX se vuelve a escribir, pero ahora en C.
El lenguaje C se vuelve uno de los lenguajes de programación más populares en lo tocante al desarrollo de los programas para computadora.
Se presentan los disquetes de 5 1/4 pulg, que representan una manera portátil de almacenar información y pasarla entre máquinas.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1973
La compañía IBM presenta dispositivos nuevos para guardar gran cantidad de información: el disco de 8 pulgadas con los dos lados útiles, en el que se pueden almacenar 400 KB de datos y el disco duro Winchester de 8 pulgadas con cuatro tableros de interconexión que puede almacenar la sorprendente cantidad de 70 MB de información.
Bob Metcalfe, que trabajaba en Xerox PARC, crea una metodología para conectar computadoras llamada Ethernet.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1974
Intel da a conocer un circuito integrado 8080. Este dispositivo funciona a 2 MHz y es de 8 bit, puede tener acceso a 64 KB de memoria usando una estructura de direccionamiento de 2 bytes. Tiene más de 6 000 transistores. Es capaz de ejecutar 640 000 instrucciones por segundo.
Motorola lanza el microprocesador 6800. También es un procesador de 8 bit, que se utiliza principalmente en instrumentos industriales y de automotores. Se convertirá en el circuito integrado preferido para las computadoras Apple, lo cual desencadena una batalla entre los seguidores de los microprocesadores Intel y los de Motorola.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1975
La primera microcomputadora que se encuentra en el comercio, la Altair 880, es la primera máquina en ser llamada «computadora personal». Posee 64 KB de memoria y una estructura de bus de 100 líneas. Se vende en 397 dólares en un estuche para armar, o bien, en 439 dólares ya ensamblada. El nombre de Altair lo sugirió la hija de 12 años del editor de Popular Electronics porque Altair era aquella tarde el destino del Enterprise, la nave espacial de Star Trek, el programa de televisión que se conoce como Viaje a las estrellas. Dos jóvenes estudiantes universitarios, Paul Alien y Bill Gates, dan a conocer el intérprete del lenguaje BASIC de la computadora Altair. Durante las vacaciones de verano, estos estudiantes forman una compañía a la que denominan Microsoft, la cual, con el paso del tiempo, crece hasta convertirse en una de las compañías de software más grandes del mundo.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1976
Steve Wozniak y Steve Jobs
construyen la computadora Apple I. Es menos potente que la Altair, pero también menos cara y menos complicada. Los usuarios pueden conectar su propio teclado y su propia pantalla, y, además, tienen la opción de montar la tarjeta madre de la computadora en cualquier gabinete que ellos elijan, como una caja de metal, de madera o un portafolios. Jobs y Wozniak forman la AppleComputer Company el día primero de abril. April Fool’s Day, y el nombre de la empresa se debe a que la manzana era su fruta predilecta.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1977
Se da a conocer la computadora Apple II. Ya viene ensamblada dentro de un gabinete y tiene además un teclado integrado. Los usuarios la deben conectar a sus televisores.
Las microcomputadoras totalmente ensambladas pegan con fuerza en el mercado, en el que Radio Shack, Commodore y Apple venden sus modelos. Las ven tas son bajas porque nadie sabe que hacen exactamente estas máquinas. La Datapoint Corporation anuncia la Attached Resource ComputincNetwork (ARCnet), la primera técnica LAN comercial cuya pretensión e¿ que la aprovechen las aplicaciones de las microcomputadoras.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1978
Intel lanza el circuito integrado 8086 de 16 bit que fija una nueva norma en cuanto a potencia, capacidad y rapidez dentro de los microprocesadores. Epson anuncia la impresora de matriz de puntos MX80, en la que se conjunta un alto rendimiento y relativamente bajo precio. (Epson de orígenes japoneses, inicia sus operaciones en Estados Unidos en 1975 como Epson America, Inc., y se convierte en una de las primeras de muchas compañías extranjeras en Estados Unidos que contribuye al crecimiento de la industria de las computadoras personales. Hasta este momento sólo habían estado presentes puras compañías estadounidenses. Según Epson, la compañía absorbió 60% del mercado de las impresoras de matriz de puntos con la MX80.)

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1979
Intel introduce el microprocesador 8088, que ofrece una arquitectura interna de 16 bit y un bus externo de 8 bit. Motorola presenta el circuito integrado 60000; contiene 60.000 transistores, de donde se tomó su nombre. Se usará en las primeras computadoras Machintoch. Software Arts, Inc. da a conocer VisiCalc, el primer programa comercial que es una hoja de cálculo y que se puede utilizar en las computadoras personales. Siempre se considera que VisiCalc es el que abrió el camino a las computadoras personales en el mundo de los negocios.
Bob Metcalfe, el creador de Ethernet, forma 3Com Corp, para perfeccionar productos basados en Ethernet. Con el tiempo, Ethernet evolucionó en el sistema de interconexión en redes más usado del mundo.MicroPro International introduce WordStar, el primer programa comercialmente exitoso para procesar palabras que se puede usar en microcomputadoras compatibles con IBM.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1980
La compañía IBM escoge a Microsoft (fundada por Bill Gates y Paul Allen) para que proporcione el sistema operativo de su próxima computadora personal. Microsoft compra un programa que desarrollóSeattle Computer Products, llamado QDOS (Quick and Dirty Operating Systems) y lo modifica para correrlo en el hardware de IBM. Bell Eaboratories inventa el Bellmac32, el primer microprocesador de un solo circuito integrado con una arquitectura interna de 32 bit un bus de datos de 32 bit. Ea Eotus Development Corporation da a conocer el programa con hoja de cálculo integrada Eotus 123. el cual combina hoja de cálculo, gráficos y base de datos en un solo paquete.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1981
Adam Osborne fue el creador de la primera computadora portátil del mundo, la Osborne 1. Pesa casi 22 libras, cuenta con dos unidades de disco de 5 1/4 pulg, 64 KB de RAM y un monitor de 5 pulg y carece de disco duro. Se basa en un procesador z80, trabaja con el sistema operativo CP/M y se vende en 1 795 dólares. WordStar (una aplicación para procesar palabras) está incorporado en la Osborne 1, así como SuperCalc, que es una hoja de cálculo. Es un logro enorme.La compañía IBM presenta la IBMPC con un CPU Intel 8088 que funciona a 4.77 MHz, tiene 16 KB de memoria, un teclado, un monitor, una o dos unidades de disco de 5 1/4 pulg y un precio de 2 495 dólares.Por otro lado, Hayes Microcomputer Products, Inc., presenta la SmartModern 300, que se vuelve con rapidez el patrón de la industria.Xerox da a conocer la computadora Xerox Star. A la larga, su alto precio la condenó al fracaso comercial, pero sus características inspiran toda una nueva dirección en el diseño de computadoras. Una pequeña caja sobre ruedas el primer mouse ejecuta órdenes sobre la pantalla, la primera interfaz de gráficos para el usuario.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1982
La compañía Intel da a conocer el microprocesador 80286 de 16 bit. Se forma Sun Mycrosystems, y empieza a montar la estación de trabajo Sun1. Dan a conocer AutoCAD, un programa para diseñar objetos en dos o tres dimensiones. AutoCAD revolucionará las industrias de la arquitectura y la ingeniería.
Work empieza a trabajar sobre TCOP/IP. Se usa por primera vez el término Internet para describir la red de redes mundial, que proviene de ARPANET.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1983
La revista Time califica a la computadora como «La Máquina del Año» 1982, con lo cual reconoce el nuevo papel de la computadora en la sociedad. La compañía Apple presenta a Lisa, una computadora con un sistema operativo puramente gráfico y un ratón. La industria ha recibido un gran estímulo, pero el precio de Lisa de 10 000 dólares desanima a los compradores.
La compañía IBM da a conocer la IBMPC XT, que, en esencia, es un PC con un disco duro y más memoria. La KT puede almacenar programas y datos en su disco duro de 10 Mb. incorporado.Crean la primera versión del lenguaje de programación C++, el cual permite escribir programas en piezas independientes reutilizables, llamadas objetos.Lanzan la computadora portátil Compaq, el primer clon de PC exitoso 100% compatible. (El término clon se refiere a cualquier PC que se base en la misma arquitectura usada en las computadoras personales de IBM.) A pesar de 28 libras de peso, casi 13 kg de peso, se vuelve una de las primeras computadoras en ser jalada por los aeropuertos.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1984
Adobe Systems libera su sistema PostScript, el cual permite que las impresoras generen impresiones muy bien definidas con diversos tipos de letras, así como imágenes muy complejas. Richard Stallmanabandona el Instituto Tecnológico de Massachusetts para iniciar el proyecto de software gratis (GNU no es Unix). Este proyecto crece luego de que se le añaden miles de programas a la biblioteca de software gratis de acceso libre, disponible mediante una licencia especial.
La Free Software Foundation, una opción ante los programas caros de acceso restringido. Apple presenta la microcomputadora Macintosh la cual ofrece una interfaz «amigable con el usuario».La compañía IBM monta la IBMPC AT, una computadora de 6 MHz en la que está incorporado el procesador 80286, que fija el estándar de las computadoras personales que funcionan con DOS.IBM presenta su sistema de redes Token Ring. Es un sistema confiable y redundante que puede enviar paquetes a 4 Mbps; varios años más tarde esta velocidad aumentaría hasta 16 Mbps.La compañía Satellite Software International presenta el programa procesador de palabras WordPerfect.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1985
Intel lanza el procesador 80386 (también conocido como 386), que es un procesador de 32 bit. Puede direccionar más de 4 mil millones de bytes de memoria y funcionar 10 veces más rápido que el 80286. Aldus lanzaPageMaker para las Macintosh, el primer programa para edición en el escritorio, utilizable en microcomputadoras. PageMaker se acomoda acoplado con la impresora LaserWriter de Apple y el sistema PostScriptde Adobe en la era de la edición en el escritorio.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1986
La compañía IBM presenta la PC convertible, la primera computadora portátil de IBM y la primera computadora fabricada con Intel que cuenta con una unidad de disco de 3 1/2 pulg. Microsoft vende su primera reserva pública a 21 dólares la acción, y reúne 61 millones de dólares en la oferta pública inicial.
Se efectúa la primera conferencia internacional sobre la técnica del CDROM en Seattle, convocada por Microsoft. Los discos compactos se consideran como el medio de almacenamiento del futuro para los usuarios de computadoras.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1987
La compañía IBM presenta la nueva línea PS/2 de computadoras, cuyas características son un procesador de 20 MHz 80386. Esta línea de productos incluye el bus MicroChannel, pero no es un gran éxito porque los consumidores no quieren reemplazar los periféricos estándar de la industria. Para competir con la arquitectura MicroChannel de IBM, un grupo de otros fabricantes de computadoras introduce el bus EISA (Extended Industry Standard Architecture).
La IBM lanza su monitor Video Graphics Array (VGA) que ofrece 256 colores a una resolución de 320 x 200 y 16 colores a 640 x 480.
Apple Computer lanza la computadora Macintosh II, dirigida al mercado de la edición de textos. Comprende un monitor VGA. Apple Computer presenta HyperCard, un lenguaje de programación para las Macintosh, el cual aplica la metáfora de encimar tarjetas de índice para representar un programa una clase de lenguaje de programación visual. HyperCard permite enlaces con diferentes partes de un programa o con diferentes programas. Este concepto dará origen al desarrollo de HTML (hypertext markup language). Motorola da a conocer su microprocesador 68030.
Novell presenta su sistema operativo de redes, llamado NetWare.

https://historiaybiografias.com/linea_divisoria6.jpg

microcomputadora

1988
La IBM y Microsoft montan OS/2 1.0, el primer sistema operativo de escritorio que ejecuta varias tareas. Su alto precio, una curva de aprendizaje de pendiente elevada y la incompatibilidad con las computadoras personales existentes contribuyen a la falta de participación en el mercado. Apple Computer entabla el único juicio más grande en la industria de las computadoras contra Microsoft yHewlettPackard, en el que reclama violaciones a los derechos de autor de su sistema operativo y su interfaz de gráficos para el usuario.

https://historiaybiografias.com/linea_divisoria6.jpg

Hewlett Packard introduce la popular primera impresora de inyección de tinta, la HP Deskjet. La nueva compañía de Steve Job, NeXT, Inc., da a conocer la computadora NeXT, que posee un procesador Motorola 68030 de 25 MHz. Ea NeXT es la primera computadora en usar una programación orientada a objetos en su sistema operativo y un impulsor óptico, en lugar de uno flexible. Apple introduce el Apple CD SC, un dispositivo de almacenamiento CDROM que permite el acceso de hasta 650 MB de datos. Un virus llamado Internet worm es liberado en la Internet, y ocasiona que 10% de todas las computadoras conectadas a Internet queden incapacitadas.

microcomputadora

1989
Intel lanza el circuito integrado 80486, que también se conoce como 486, el primer microprocesador de un millón de transistores del mundo. Este circuito integrado comprende un CPU 386 y un coprocesador matemático dentro del mismo circuito. Tim Berners Lee elabora un software alrededor del concepto de hipertexto, que permite al usuario hacer clic en una palabra o una frase de un documento y saltar a otro lugar del mismo documento o a otro archivo. Este software proporciona los fundamentos para el desarrollo de la World Wide Web y es la base de los primeros buscadores de la Web.

Diferencias entre el Paleolitico y el Neolitico Caracteristicas Vida

Diferencias entre el Paleolítico y el Neolítico

INTRODUCCIÓN HISTÓRICA:

Ningún secreto ha sido más celosamente guardado por la naturaleza que el de la aparición del hombre. A pesar del extraordinario progreso científico en el curso de las últimas décadas, es imposible aún decir con exactitud cuándo el hombre apareció sobre la tierra. Posiblemente, la mayor dificultad radica en que el hombre mismo es muy difícil de ser definido.

Cuando se trata de peces, anfibios, reptiles o pájaros, podemos encarar su estudio, ateniéndonos a sus peculiaridades físicas; pero en cuanto abordamos al hombre, debemos tener en cuenta no sólo su físico sino también su formación intelectual y moral. Establecer el árbol genealógico de la humanidad es, aún hoy, tarea difícil.

Es sabido que hace más de 15 millones de años existieron simios mucho más parecidos al hombre que a los monos de hoy.

Pero no hay testimonios que nos permitan hablar de animales que fuesen capaces de producir fuego, fabricar utensilios, enterrar a sus muertos, dibujar, que es lo que distingue, entre otras cosas, aun a los hombres más primitivos, de toda otra criatura existente.

La Prehistoria es la ciencia que investiga la actividad humana en épocas anteriores a todo documento escrito, tradición o leyenda. De estos tiempos tan remotos sólo quedan vestigios del hombre primitivo: sus propios huesos, moradas, armas y utensilios. El estudio de estos restos presenta muchas dificultades y generalmente las soluciones son simples hipótesis o conjeturas.

Aunque la Prehistoria se ocupa de épocas remotísimas, su estudio es más reciente que el de la Historia, pues se originó a mediados del siglo pasado con el francés Jacobo Boucher de Perthes, naturalista que, por el año 1837, realizó las primeras excavaciones al norte de Francia.

La Protohistoria es un período de transición, que continúa al anterior y en el cual, además de los restos arqueológicos, se valorizan tradiciones y leyendas.

La Historia comienza con la aparición de los primeros documentos escritos, es decir, con la invención de la escritura, aproximadamente entre los 4.000 a 5.000 años antes de Cristo.

Muchas dificultades ofrece reconstruir los comienzos de la evolución cultural del hombre a partir de la época en que empezó a poblar la superficie terrestre. En una primera y larguísima etapa desconocía la vida común organizada, no cuidaba rebaños ni sembraba pero, debido a su inteligencia superior y a su aptitud para emplear un lenguaje hablado, pudo adaptarse a la naturaleza e iniciar una lenta y difícil marcha hacia una vida mejor.

Por el conocimiento transmitido a través de sucesivas generaciones y la habilidad de sus manos flexibles, el hombre alcanzó un nivel de progreso que comprende su cultura primitiva, así denominada porque debe ubicarse al comienzo de la historia de la humanidad.

Según el material que el hombre de aquella lejana época empleaba en sus armas y utensilios, la ciencia prehistórica distingue la Edad de Piedra y la Edad de los Metales.

Para la Edad de Piedra observe la tabla mas abajo, donde está divida en el Paleolítico (piedra tallada)  y Neolítico (piedra pulida).

Edad de los Metales
Comprende dos períodos:
a)   Edad del Bronce. El cobre fue el primer metal empleado por el hombre para remplazar a la piedra en la construcción de variados objetos. Comenzó a usarse —unos 4000 años a. C.— en regiones cercanas al golfo Pérsico, luego en Egipto y más tarde en Europa. Es muy maleable y se lo encuentra generalmente puro, lo cual explica por qué fue el primer metal utilizado; sin embargo, carecía de la dureza necesaria para confeccionar objetos resistentes.

Con posterioridad el hombre primitivo logró fundir el cobre con el estaño y obtuvo el bronce, de mayor consistencia y por ello muy apto para fabricar armas.- En una ciudad lacustre de Suiza se encontraron un horno y diversos residuos de fundición. Comenzó en esta forma la metalurgía. de gran trascendencia para el progreso del género humano.

b)   Edad del Hierro. Manuscritos egipcios, cuya antigüedad se calcula en 1250 años (a. C), mencionan por primera vez, el empleo del hierro, aunque es probable que este metal fuera introducido por otros pueblos invasores que conocían su uso a pesar de poseer menor cultura. En general, el hierro fue utilizado luego de la invención, de la escritura, y por esto sólo es prehistórico en contados pueblos.

En las ciudades de La Teñe (Suiza) y en Hallstatt (Alemania) —habitadas por pueblos celtas y germanos— se han encontrado espadas de hierro, de hoja ancha y pesada,  hachas y puntas de lanzas del mismo metal. A partir de esta Edad comienzan los tiempos históricos.

LA EDAD DE PIEDRA:

PALEOLÍTICO
(Piedra Vieja o Tallada»

Este período constituye casi el 99% del registro arqueológico mundial, fue subdividido en tres grandes fases sucesivas: paleolítico inferior, medio y superior. Se inicia hace unos 3.000.000 años, esta fecha es solo tentativa y siempre discutida.

La forma de vida humana era nómada, vivían en pequeños grupos y las principales preocupaciones del hombre eran conseguir el alimento diario y defenderse de los peligros, como los que representaban los grandes animales. La subsistencia se lograba a partir de la caza y la recolección.

Por la caza se obtenían las carnes y por la recolección se reunían raíces, hojas y frutos. Inicialmente comía animales muerto, luego perfecciona la caza de animales, tales como trampas y emboscadas. No producían alimentos, solo lo recolectaban.

Aprendieron a dominar el fuego, y así fue posible cocer los alimentos, protegerse del frío, espantar a las fieras; pero, fundamentalmente, aprender a manejar la naturaleza, a servirse de ella.

Enterraban a los muertos, es decir, tenían el concepto de la vida espiritual.

Construían hachas de mano, puntas de flechas, raspadores,…y mas sobre el paleolítico superior, aparecen silbatos, lanzas, arpones, bastones, agujas de coser, punzones, lámparas. Usaban la grasa para mantener el fuego.

Golpeaba «piedra contra piedra» para cortarlas y moldearlas, y lógicamente su terminación era tosca y rústica.

Respecto al arte, comenzaron las primeras expresiones artísticas, dibujando animales, cuerpos humanos, plantas, armas, escenas de la vida diaria, etc. sobre paredes y techos de piedra en cuevas protegidas, el arte rupestre

 

 

NEOLÍTICO
(Piedra Nueva o Pulida)

Comienza aproximadamente en -12000 y podemos decir que las mas importantes transformaciones e inventos del hombre de la prehistoria, se ha dado en este período, y se la conoce como la «revolución neolítica»(-8000).

Logra domesticar los animales, como cabras, caballos, ovejas, asno, vaca y cerdo.

Aprende a sembrar y comienza con la práctica sistematizada de la agricultura. Sabe que debe almacenar granos para las épocas de escasez. Construye herramientas para sembrar y depósitos de granos, como los silos. Sembraba trigo, cebada, arveja, centeno, mijo y arroz.

El hombre abandona la vida nómada, para asentarse definitivamente el pequeños grupos inicialmente y luego en aldeas y ciudades, es decir, sale de las cavernas y construye viviendas.

Construyó viviendas sobre pilares en lagos para protegerse de los ataques de fieras o tribus enemigas. (palafitos). Construyó botes con troncos ahuecados.

Inició la vida en familia y comunidad, estrechando lazos de amistad.

Comenzó a moldear la cerámica y elaboró envases para granos y líquidos.

Llegó al apogeo de la técnica de construir elementos de piedras, ahora logra pulirla usando arena fina seca o húmeda. Aprendió a perforarla.

Construyó monumentos, como menhires, altares sagrados y dólmenes. Practicó un culto a la muerte.

Aprendió a tejer, logrando telas de lino y recipientes trenzados.

Inventó el ladrillo de adobe y paja secado al sol.

Perfeccionó todos los utensilios y armas del período anterior. Creó el arco y la flecha para cazar.

TABLA COMPARATIVA

LA EVOLUCIÓN DE LAS HERRAMIENTAS DE USO: Conocemos mucho acerca de sus herramientas, que se han conservado muy bien (según observamos en los museos), y podemos advertir cómo van perfeccionándose gradualmente en su proyecto y ejecución a lo largo de los tiempos prehistóricos.

Probablemente los primeros instrumentos fueron de madera, quizá con las partes que deben ser más resistentes endurecidas por la acción del fuego; pero, como es lógico, tales herramientas y armas de madera no se han conservado.

Las que conocemos son pedazos desmenuzados de pedernal. El trabajo que se daba a estos primeros instrumentos era tan imperfecto, que hoy día surge con frecuencia la duda de si, en algunos casos, se trata de productos de la industria humana c de fragmentos alterados por la naturaleza de forma más o menos caprichosa. Éste es el caso de los fragmentos de roca encontrados con frecuencia junto a algunos restos fósiles primitivos (Australopitécidos) y cuya importancia es muy grande, ya que su estudio permite conocer la época de la aparición de hombres «inteligentes».

Otros restos, ya tienen signos indudables de la acción humana, como las sencillas hachas de mano de la Edad Paleolítica, o primitiva edad de piedra.

La técnica de tallar y labrar el pedernal fue mejorando lentamente, de forma que al finalizar la Edad Paleolítica —hace unos 12.000 años— existía ya» una variedad de herramientas que constituía un equipo completo para la mayoría de las necesidades primarias. De esa época conocemos: líachas, cuchillos, rascadores y puntas de lanza y flecha.

Todas las herramientas de piedra de este período muestran un trabajo basto, producido por medio de golpes con otra piedra para que saltasen esquirlas del pedernal e ir dando así forma al instrumento. El pedernal no tiene una estructura cristalina tal que produzca roturas por planos o superficies predeterminadas al ser golpeado, sino que el plano de rotura tiene una forma más o menos esférica, lo cual facilita su talla, sobre todo para conseguir filos cortantes, que tenían siempre un perfil aserrado.

Esta característica, unida a su dureza, hizo que lo prefiriesen artesanos de la Edad de Piedra. En la evolución que experimentan estos instrumentos, se observa que la talla va siendo cada vez más fina, siendo más pequeño el tamaño de las esquirlas desprendidas y más numerosos los golpes.

En la edad siguiente, llamada Mesolítica, se hacen importantes las armas e instrumentos de hueso. El trabajo del hueso hizo posible la aparición de anzuelos para pescar (provistos de púas), y de arpones con varios ganchos que aseguraban la permanencia del arma en la herida. Los utensilios de piedra de este período se van haciendo cada vez más complicados y de confección más elegante. En esta época son ya evidentes las muestras de pulido y bruñido, lo que se conseguía probablemente frotando sobre arena húmeda.

Durante la edad siguiente, la Edad Neolítica (de hace unos 5.000 años), el pulido de la piedra se hace general. Las pruebas arqueológicas demuestran que en este período aparece por primera vez una agricultura incipiente.

Las primeras herramientas metálicas se encuentran a partir de la Edad de Bronce, hace unos 4.000 años. Unos 1.000 años más tarde aparece el uso del hierro, que sustituye al bronce, y que desde entonces se hace el metal de más importancia.

Al principio de la Edad del Bronce se inventó la rueda, y ya existían pequeños poblados o aldeas (rudimentos de organización social).

Todos estos datos se refieren a las armas y herramientas de piedra y de metal de nuestros antepasados, que son las que mejor se han conservado, pero ¿qué decir del resto de sus utensilios, de sus costumbres y modo de vida? Bastante de esto puede todavía conocerse por los restos arqueológicos, pero una forma interesante de informarse, es dirigirse a distintas tribus actuales.

Galaxias Grupo Local Grupo de Galaxias Mas Cercanas La Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es «no», puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios.

Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años.

Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado «grupo local». Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

«La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.»

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para «ver» aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.

Distancias a las estrellas Mas cercanas Tamaños y Medidas Estrellas

DISTANCIA A LAS ESTRELLAS Y SU TÉCNICA DE MEDICIÓN

LAS DISTANCIAS DE LAS ESTRELLAS En comparación con la inmensidad del espacio, el sistema solar es un pequeñísimo y compacto conjunto de cuerpos celestes. Pero acostumbrados a considerar las distancias de nuestro propio planeta, creemos que el sistema solar es enorme.

Ya no nos sorprende cuando nos damos cuenta de que la distancia de la Tierra al Sol es casi 4.000 veces mayor que la longitud del ecuador terrestre, y que la distancia desde el Sol hasta Plutón equivale a unas 150.000 vueltas alrededor de nuestro planeta. Tales distancias son tan grandes y desproporcionadas con relación a nuestra experiencia diaria, que sólo consiguen confundirnos cuando intentamos expresarlas en kilómetros. Y cuando hablamos de distancias aun mayores, los números en sí resultan demasiado grandes para comprenderlos con facilidad.

Galaxias y estrellas del universo

Por esta razón los astrónomos han tenido que buscar otra unidad de longitud para utilizarla en lugar del kilómetro. Y la más útil que se ha encontrado hasta el momento ha sido la velocidad de la luz, que se desplaza a 300.000 Km./seg, y recorre la distancia del Sol a la Tierra en poco menos de ocho minutos y medio, y del Sol a Plutón en cinco horas y media. Por ello decimos que el Sol está a ocho y medio minutos-luz de la Tierra, y que Plutón se encuentra a cinco y media horas-luz del Sol.

Puesto que la distancia del Sol a Plutón es sólo el radio de la circunferencia del sistema solar, debemos doblar dicha distancia para expresar su diámetro —11 horas-luz—. Pero como muchos cometas se alejan todavía más que la propia órbita de Plutón, podemos decir que la totalidad del sistema solar ocupa por lo menos un espacio de unas 12 horas-luz.

Puesto que un viaje alrededor de la Tierra sólo equivale a un octavo de segundo-luz, podemos darnos cuenta de la inmensidad del sistema solar según nuestros patrones terrestres.

Y, sin embargo, sólo se trata de un pequeño punto en el espacio sideral. La estrella más próxima al Sol está situada no a segundos, minutos y horas-luz del mismo, sino a una distancia de cuatro y medio años-luz. Cuando recordamos que en un año hay casi 9.000 horas, nos damos cuenta de que el diámetro del sistema solar es muy pequeño en comparación con la distancia que nos separa de la estrella más próxima. Si expresamos ambas distancias en kilómetros, obtendremos 12.000 millones de kilómetros para el sistema solar y 40 billones de kilómetros para la estrella más próxima (que es precisamente la alfa de la constelación del Centauro, o a Centauri, visible sólo para los habitantes del hemisferio sur).

Al considerar las distancias de otras estrellas vemos que cuatro y medio años-luz están sólo «a la vuelta de la esquina». Por ejemplo, de entre las estrellas más brillantes que observamos en el cielo, Sirio está a 9 años-luz y Vega a 26, años-luz; y aun éstas son vecinas próximas. Arturo se encuentra a 36 años-luz, Capella 345 años-luz y Aldebarán a 68 años-luz y todavía no podemos considerarlas lejanas.

Sólo cuando hablamos de estrellas como la Espiga y Antares, a 220 y 520 años-luz, respectivamente, estamos tratando de estrellas realmente lejanas. Sin embargo, no hemos empezado siquiera a agotar la lista de las estrellas brillantes.

Rigel, de la constelación de Orion, se encuentra a 900 años-luz. Esto quiere decir que la luz que de ella nos llegó anoche empezó su viaje hace 900 años. El universo estelar es, por lo tanto, mucho mayor de lo que podemos imaginar cuando casualmente dirigimos nuestra mirada hacia el cielo nocturno. Hemos visto que los planetas constituyen un compacto grupo que sistemáticamente se mueve alrededor del Sol. ¿ Y qué ocurre con las estrellas? ¿Es posible encontrar cierto sistema u organización dentro de ellas? ¿Cómo se mueven, exactamente? ¿Hasta dónde se extienden en el espacio?

Preguntas de este género, que han intrigado a los astrónomos durante miles de años, sólo han podido contestarse a partir del siglo pasado. Desde luego, los hombres que vivían en cavernas se dieron cuenta de que las estrellas parecen conservar sus posiciones relativas. Este hecho permitió a los hombres primitivos agrupar las estrellas según configuraciones que les recordaban vagamente a los legendarios héroes y heroínas o a los animales salvajes que conocían.

Pero estos grupos, o constelaciones, sólo presentan tales aspectos al ser vistos por un observador terrestre. No se trata de grupos de estrellas que estén realmente cerca unas de otras en el espacio; tan sólo parecen estarlo. Cuando los astrónomos descubrieron que las estrellas también se mueven y aprendieron a medir las distancias estelares, empezaron a reconocer cierta organización en el sistema de las estrellas.

LAS DIEZ ESTRELLAS MAS CERCANAS

Próxima Centauri Distancia: 4,2 AL
Rigel Kentaurus Distancia: 4,3 AL
Estrella de Barnard Distancia: 5,9 AL
Wolf 359 Distancia: 7,7 AL
Lalande 21185 Distancia: 8,26 AL
Luyten 726-8A y B Distancia: 8,73 AL
Sirio A y B Distancia: 8,6 AL
Ross 154 Distancia: 9,693 AL
Ross 248 Distancia: 10,32 AL
Epsilon Eridani Distancia: 10,5 AL

LA MEDICIÓN DE LAS DISTANCIAS:

Cuando las estrellas cuyas distancias queremos medir son las más próximas, se emplea un recurso de la Trigonometría que se llama paralaje. Pongamos un ejemplo práctico. Si nos encontramos en un campo y vemos a mediana distancia un poste de telégrafo, al balancear nuestra cabeza podremos ver cómo el poste «se mueve» contra el fondo del horizonte, que está mucho más lejos. Desde luego que nos resultaría más fácil medir la distancia que nos separa utilizando una cinta de medición, pero ¿y si entre nosotros y el poste hubiese un río caudaloso?

En ese caso podríamos aplicar un artificio que consiste en medir el segmento aparente que se forma en el horizonte cuando, al movernos, el palo se traslada sobre él, medir la distancia real entre los dos puntos que marcan los extremos de nuestro movimiento y, finalmente, tomar los ángulos que quedan determinados ente el poste y nuestras dos posiciones sucesivas.

Esto es precisamente lo que hacen los astrónomos. Para ellos, con mover un poco el cuerpo, como hacíamos nosotros en el campo, no es suficiente, porque no hay punto de comparación entre las magnitudes de uno y otro ejemplo. Se pensó primero en trasladarse a dos puntos alejados de la Tierra y, desde allí, efectuar observaciones sincronizadas, es decir, en el mismo momento, pero también estas dimensiones resultaron escasas.

Finalmente, se pensó que lo ideal sería aprovechar que nuestro planeta se mueve en torno al Sol. De esta forma, se podría realizar una observación en enero, por ejemplo, y otra en julio (medio año después) con lo que el «balanceo» de nuestra prueba inicial pasaría a ser de unos 304 millones.de kilómetros (304.000.000.000 metros). ¡Ahora las cosas cambian! Bueno … no tanto. A pesar de esta «trampa», la lejanía de las estrellas es tal que el ángulo determinado por las dos posiciones extremas de la Tierra y la más próxima de ellas es de 1 segundo y medio (o sea el ángulo que se forma entre los extremos de una llave de valija y un punto distante a seis kilómetros de ella).

De todos modos, podemos quedarnos tranquilos, porque este valor, por pequeño que sea, puede ser perfectamente captado con los instrumentos de precisión con que cuenta nuestra sociedad actual. Se han efectuado inclusive paralajes de estrellas cuyo ángulo es inferior a la décima de segundo. La distancia de las estrellas más lejanas es mucho más difícil de determinar, ya que en ellas no se puede aplicar el método de paralajes trigonométricos.

Pero, todo tiene solución. Partamos de la base que la luminosidad de los cuerpos celestes disminuye en la medida que se encuentren más lejos. Estoes fácilmente demostrable: mayor luz dará un farol que está al lado nuestro, que otro igual ubicado a una cuadra de distancia.

Lo que nos resta hacer ahora es ver cómo podemos aplicar esto en el espacio sideral. Empecemos por aclarar que las estrellas no son «faroles iguales», lo que nos complica unpoco las cosas, ya que debemos averiguar no sólo su luminosidad absoluta, sino también la aparente.

Entendemos por absoluta, toda la luz que da; y aparente, sólo la que llega a nosotros.

La aparente se mide con facilidad por intermedio de placas fotosensibles. Para la absoluta, en cambio, las cosas se hacen un poco más complicadas. Es necesario que descompongamos la luz que nos mandan por medio de un prisma. Obtendremos así un espectro, que no es otra cosa que la luz distribuida de acuerdo con sus colores componentes en una escala que va de! ultravioleta al infrarrojo. De este gráfico se puede inferir la luminosidad absoluta de un cuerpo a partir de su temperatura intrínseca.

Después -ya obtenidos los datos de luminosidad absoluta y relativa- no queda otra cosa que aplicar fórmulas constantes que nos dan la distancia desde la Tierra hasta la estrella.

 

esquema del paralaje de una estrella

esquema del paralaje de una estrella

Fuente Consultada:
Secretos del Cosmos Tomo 2 (Salvat)
Enciclopedia Ciencia Joven -Distancia a las Estrellas  – Fasc. N°12 Editorial Cuántica

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Fecha de la Primera Caminata Espacial Americana Ed White

Fecha de la Primera Caminata Espacial
Historia Exploración Espacial

Edward White, nació en San Antonio, Texas  el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico. Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea. Ha registrado más de 3.000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial. En 1965 se convirtió en el primer astronauta americano en caminar por el espacio.

White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio. Lo hizo en junio de 1965, tres meses después que el ruso Leonov.

White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967. En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

El desarrollo cientifico y grandes inventos en el siglo XX

El Desarrollo Científico y Grandes Inventos en el Siglo XX

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

TEMAS CIENTÍFICOS TRATADOS EN ESTE SITIO

 

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta «transmutación» posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

Conceptos Basicos de Internet Que es internet? Origen de la Red

QUE ES INTERNET?

En muchas de las oficinas actuales, las computadoras están interconectadas de forma tal que pueden compartir entre ellas archivos de datos, programas, impresoras y otros recursos. Normalmente, estas redes disponen de uno o varios ordenadores, llamados servidores, que son los que almacenan la información y controlan los periféricos a compartir.

El resto de las computadoras, llamadas “clientes”, disfrutan de estos servicios. Esta estructura de ordenadores “Cliente-Servidor” es lo que se conoce como una red de ordenadores.

Entendido el concepto de red y su utilidad, podemos imaginar miles de redes de empresas y universidades por todo el mundo, cada una proporcionando servicios y recursos a sus ordenadores clientes.

Si se conectan estas redes entre sí mediante líneas de datos, se obtiene lo que se suele llamar una red de redes. Internet es la mayor red de redes global existente. Conecta a millones de ordenadores entre sí para intercambiar información y ofrecer múltiples servicios a usuarios de todo el mundo. Internet es un medio de comunicación de características muy particulares. Permite acceder a información, audio, video, imágenes, pero no es televisión ni radio.

Permite realizar transacciones comerciales y no es la red informática de un banco. Internet es, tal vez, la plataforma fundamental de la denominada “nueva economía” y el canal de transmisión por excelencia de la “aldea global”.

Internet es el legado del sistema de protección de los Estados Unidos para mantener sus computadoras militares conectadas en caso de un ataque militar y la destrucción de uno o varios de los nodos de su red de computadoras.

En la actualidad es una enorme red que conecta redes y computadoras distribuidas por todo el mundo, permitiéndonos comunicarnos y buscar y transferir información sin grandes requerimientos tecnológicos ni económicos relativos para el individuo.

En esta red participan computadoras de todo tipo, desde grandes sistemas hasta modelos personales descontinuados hace años. En adición, se dan cita en ella instituciones gubernamentales, educativas, científicas, sin fines de lucro y, cada vez más, empresas privadas con intereses comerciales, haciendo su información disponible a un público de más de 100 millones de personas.