Historia de las Microcomputadoras

Biografia de Babbage Charles Inventor de la Maquina Analitica

Biografia de Babbage Charles-Inventor de la Maquina Analitica

BABBAGE, Charles. (Teignmouth, 1792-Londres, 1871.) Matemático británico. Se le considera el padre de las computadoras digitales, pues en 1822 construyó un modelo de calculadora mecánica (la máquina diferencial), así llamada porque para realizar sus cálculos utilizaba la teoría matemática de las diferencias finitas.

Más tarde (1823-42) recibió apoyo del gobierno para construir otra más compleja, que operaría con 21 cifras decimales e incluía unas 25.000 piezas.

Una pequeña porción de la máquina (unas 2.000 piezas) quedó montada en 1832 y se convirtió en la primera calculadora mecánica.

Pero el proyecto completo fracasó y el gobierno británico le retiró su patrocinio.

En 1847 trató de construir una segunda versión mejorada (la máquina diferencial número 2), pero no pudo obtener apoyo.

La máquina ha sido construida en 1991 por Doron Swade, del Museo de la Ciencia de Londres, y su funcionamiento ha sido satisfactorio, lo que demuestra que el diseño de Babbage era correcto.

En 1834 diseñó la máquina analítica, capaz de realizar toda clase de operaciones con una estructura semejante a la de las computadoras modernas, pero no llegó a construirse, quedando olvidada hasta que se publicaron las notas de Babbage en 1937.

ació el 26 de diciembre de 1792, en 1 Teignmouth, Devon (Inglaterra).

Estudió en la Universidad de Cambridge y publicó las tablas de logaritmos más exactas de su época.

La máquina se habría programado por medio de tarjetas perforadas, según un procedimiento inventado por la condesa Ada Lovelace (hija de Lord Byron), a quien se considera la primera programadora de la historia, y en cuyo honor se impuso su nombre al lenguaje de programación Ada, patrocinado por el departamento de defensa de los Estados Unidos.

BREVE FICHA BIOGRAFICA

• A los 23 años se casó con Georgiana Whitmore, con quien tuvo ocho hijos.

• En 1823 empezó a construir la máquina diferencial: una calculadora mecánica que hacía rápidamente sumas complejas.

• Después de 1832 ideó la máquina analítica, inspirándose en las tarjetas perforadas del telar de Joseph-Marie Jackard, inventado en 1801.

• En 1834 renunció el mecánico que lo ayudaba en la construcción de la
máquina diferencial y su invento quedó sin terminar.

• En 1843, Ada Byron hija del poeta inglés lord Byron, le sugirió adaptar las tarjetas perforadas para que permitieran que el motor de Babbage repitiera ciertas operaciones. Debido a que la tecnología de la época no era lo suficientemente avanzada y a la falta de apoyo económico para realizar su proyecto, Babbage nunca llegó a construir la máquina analítica.

• Murió en 1871, en Inglaterra.

Biografia de Babbage
Debido a la colaboración que Ada Byron le brindó a Babbage, muchas personas la consideran como la primera programadora de computadoras y por eso un lenguaje de computación lleva su nombre: ADA.

SU LOCA IDEA: Construir una máquina analítica que podía almacenar y seleccionar información, resolver problemas a una velocidad de sesenta operaciones por minuto e imprimir. El diseño requería mecanismos que necesitaban una locomotora para ponerse en movimiento. El aparato no llegó a construirse y casi nadie creyó en él; se hizo famoso como «la locura de Babbage».

Además de estas actividades, Babbage fue profesor de matemáticas en la Universidad de Cambridge, contribuyó a la fundación de varias sociedades científicas importantes, a la organización del sistema postal británico, y a la aceptación en Gran Bretaña de la notación de Leibniz para el cálculo diferencial, en colaboración con John Herschel.

Entre sus obras destacan Reflections on tire decline ofscience in England (Reflexiones sobre la decadencia de la ciencia en Inglaterra) y On the economy ofmachinery and manufactures (La economía de máquinas y manufacturas).

babbageg charles maquina diferencial
Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820.

La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada.

Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época.

En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.

El libro de Babbage, Tratado de economía de máquinas y de manufacturas (1832), inició el campo de estudio conocido actualmente como investigación operativa.

Fuente Consultada:
Grandes Cientificos de la Humanidad Tomo I Editorial Espasa Manuel Alfonseca- Entrada Charles Babbage
Ficha Individual Sobra la Vida de Babbagge Charles de GENIOS
Enciclopedia Electrónica ENCARTA – Entrada Charles Babbage

Que Es Un Algoritmo y un Diagrama de Flujo? Concepto y Ejemplos

Que Es Un Algoritmo y un Diagrama de Flujo? – Concepto y Ejemplos 

Podemos definir,  algoritmo como una secuencia ordenada de pasos  para resolver un determinado problema.

Este concepto se usa mucho en informática, pues siempre debemos «enseñar» al microprocesador como debe ejecutar sus acciones para conseguir, por ejemplo, el cálculo de los materiales de una pared de una viviendas.

Este concepto de «enseñar» se denomina PROGRAMAR y para ello se utilizan distintos lenguajes de programación, como Fortran, Dbase, Visual Basic, C++, etc.

programador de pc

En el paso del problema al programa una PC interviene en primer lugar el analista, que se encarga de definir el algoritmo de resolución, y el programador, que traduce dicho algoritmo al lenguaje adecuado a la aplicación de que se trate.

El ejemplo mas fácil para entender este concepto es cuando debemos realizar una comida y no sabemos como se hace.

En tal situación para salvar este problema recurrimos a un libro de recetas en donde nos indica paso a paso las accines que debemos realizar para llegar a buen puerto.

Como se vé el término algoritmo no está unido, como podría pensarse, a procesos científicos más o menos complejos, sino que en muchas ocasiones utilizamos algoritmos específicos sin saber que lo estamos haciendo.

En el caso del cocinero antes indicado que sigue al pie de la letra una receta destinada a la elaboración de un plato.

Como comprobación, veamos una receta de cocina cualquiera que tendría que seguir un cocinero o cocinera que quisiese elaborar unas albóndigas de queso roquefort.

Pasos de un Algoritmo Simple

Para realizar este plato, habría que seguir los siguientes pasos.

• Primer paso: aplastar y mezclar con un tenedor mantequilla y queso roquefort a partes iguales hasta que los dos elementos se incorporen el uno al otro.

• Segundo paso: dejar reposar la mezcla en un sitio frío, hasta que se endurezca.

• Tercer paso: formar con la pasta endurecida pequeñas bolitas del tamaño de una nuez.

• Cuarto paso: pasar las bolitas construidas por un plato grande lleno de pan rallado.

• Quinto paso: colocar las albóndigas en forma de pirámide en un plato y mantenerlas en el refrigerador hasta el momento de servirlas.

A este lista de pasos, lo podríamos llamar algoritmo culinario, como se puede observar, esta receta de cocina no es más que una forma de algoritmo, ya que cumple todas las características que han de tener éstos: por un lado, se trata de una serie de instrucciones muy concretas que en ningún caso presentan ambigüedad, y por otro, aparecen expresadas de una forma secuencial con un número finito de pasos elementales.

Sigamos ahora con una caso mas técnico, supongamos que queremos resolver mediante un ordenador un problema simple, como, por ejemplo, conocer si el número 7.321 es un número primo (*).

(*): primo significa que solo es divisible por el 1 y por si mismo.

Este problema, tal y como lo hemos planteado, estaría claro para una persona, pero no para un ordenador, ya que, recordemos, no se trata de una máquina «inteligente», es decir, «no sabe qué hay que hacer» para averiguar si un número es primo o no.

La siguiente operación podría ser «decir» al ordenador qué es lo que debe hacer para resolver el problema propuesto.

Es decir, dar a la máquina una orden como la siguiente: «divide el número 7.321 por todos los números enteros menores que 7.321 y averigua si alguna de estas divisiones es exacta».

Evidentemente la orden es ya mucho más clara; sin embargo, tampoco en este caso sería entendida por la máquina, ya que, como vimos, ésta es de tipo secuencial y por tanto necesita recibir órdenes dadas con un ritmo y un orden determinados.

Ejemplo Numérico

Un conjunto de acciones de este tipo debería ser entonces de la siguiente forma:

a) Divide el número 7.321 por 2.

b) Si la división es exacta, para; si no, continúa.

c) Divide el número 7.321 por 3.

d) Si la división es exacta, para; si no, continúa, etc., etc.

Un procedimiento de resolución como el anterior, en el que las diferentes instrucciones están dadas paso a paso, recibe el nombre de algoritmo.

Un algoritmo es entonces algo así como una receta de cocina que está formada por una serie de instrucciones consecutivas que, en caso de seguirse, nos llevan al resultado final deseado.

La elaboración de un algoritmo para la resolución de un problema tan fácil como el propuesto en el ejemplo es una tarea relativamente sencilla; sin embargo, al aumentarla dificultad del problema, la complejidad del algoritmo necesario para su resolución aumenta también de forma espectacular, más cuando lo que sí es claro es que no existe ningún algoritmo que permita obtener algoritmos, y esta dificultad radica básicamente en que, como característica propia de todo algoritmo, éste debe estar formado por un número finito de pasos, cada uno de los cuales debe significar una acción perfectamente definida.

El algoritmo del problema es una de las partes más importantes para la resolución del mismo mediante un ordenador, ya que en él se encuentran las instrucciones que, al expresarse primeramente en lenguaje de programación y más tarde en lenguaje máquina, se transformarán en el programa según el cual el ordenador resolverá el problema propuesto.

Algoritmos para juegos: Uno de los muchos juegos que depende de la habilidad de los jugadores y no de la suerte es el denominado de «las quince cerillas». Para comenzar, coloque quince cerillas sobre una mesa.

El jugador número uno toma de una a tres cerillas; a continuación el jugador número dos toma de una a tres cerillas, que guarda.

Este proceso se sigue repitiendo hasta que no quedan más cerillas, y pierde el jugador que se ve obligado a tomar la última cerilla.

La cuestión es la siguiente: ¿existe alguna estrategia que haga que el jugador que comienza pueda siempre forzar a su contrincante a tomar la última cerilla?.

Un análisis del juego demuestra que el jugador número uno puede obligar al jugador número dos a tomar la última cerilla si realiza las siguientes acciones: Primer movimiento: el jugador número uno toma dos cerillas.
Movimientos sucesivos: si el jugador número dos toma K cerillas (K<= 3), entonces el jugador número uno toma 4-K cerillas, y así hasta que logre dejar a su oponente la última cerilla. Siguiendo este algoritmo, el éxito es seguro.

EJEMPLOS: DIBUJANDO EL ALGORITMO, EL DIAGRAMA DE FLUJO:

Una de las características básicas que ha de cumplir todo algoritmo destinado a la solución de un problema es su falta de ambigüedad: sus acciones elementales deben estar expresadas de una forma tal que no quede en ellas ninguna posibilidad de duda.

Esta premisa hace que los lenguajes naturales -español, inglés, francés, etc– no sean los más apropiados a la hora de expresar un algoritmo, ya que, en general, todos ellos son poco concisos, de tal forma que ciertas expresiones, fuera de un contexto, presentan un alto grado de ambigüedad.

Para evitar en parte este problema, los algoritmos se suelen expresar en un lenguaje gráfico en el cual todo el proceso aparece como un organigrama.

Este método, además de una mayor concisión en la expresión del proceso algorítmico, tiene sobre otros métodos la ventaja de dar una visión global de la estructura básica que posee el algoritmo.

Un organigrama consiste en un gráfico formado por una serie de líneas que conectan entre sí distintas figuras geométricas, cada una de las cuales representa un tipo de instrucción particular.

Así, un óvalo representa tanto el comienzo como el fin del algoritmo, un rectángulo indica la existencia de una instrucción cualquiera, y un rombo representa el símbolo de decisión, esto es, el momento en que dentro del algoritmo se pueden tomar dos o más opciones distintas.

En el interior de estos símbolos se escribe taxativamente el tipo de orden que cada uno de ellos representa, y la línea que los une viene marcada con una flecha que indica la dirección en que se desarrolla el algoritmo.

Diagrama de Flujo

Una de las diferencias esenciales entre este tipo de organigramas, llamados diagramas de flujo, y el lenguaje natural con que se pueden expresar también los algoritmos reside en los puntos de ramificación –toma de decisiones– del algoritmo.

El lenguaje natural es, por su propia naturaleza, secuencial, lo que implica que, en una toma de decisiones, siempre una de ellas antecede a la otra, cosa que no sucede cuanto el algoritmo se representa por medio de un diagrama de flujo en el que del punto de decisión parten simultáneamente las dos o más decisiones posibles.

Es decir: los organigramas permiten una visión bidi-mensional del algoritmo, que no existe en el lenguaje natural.

Si suprimimos las distintas figuras geométricas del diagrama de flujo, este adquiere la apariencia de un árbol o grafo que se denomina esqueleto del algoritmo, el cual indica de una forma aproximada el tipo de algoritmo empleado.

simbolos diagrama de flujo

Arriba vemos tres simbolos para dibujar un diagrama de flujo. Combinando esos tres podemos dibujar cualquier razonamiento.

Ejemplo 1: Veamos el ejemplo del número primo:

diagrama de flujo

Diagrama de flujo del algoritmo destinado a determinar si el número 2.731 es un número primo. Este algoritmo, aun estando bien definido, es poco eficiente, pues, por ejemplo, si el número no es divisible por 2, ya no es necesario probar con ningún número par.

Ejemplo 2: Algoritmo para cambiar una rueda de una auto:

diagrama de flujo para un algoritmo

El diagrama de flujo muestra un algoritmo destinado a solucionar un problema común: el pinchazo de una rueda del coche.

Como se puede observar, en él se detallan una serie de pasos elementales que se han de realizar en un orden secuencial.

Aunque, por razón de extensión, no están señalados todos los pasos posibles, cada uno de los marcados significa una instrucción en la que no existe ambigüedad.

ALGORITMO DIRECTOS E INTERACTIVOS:

Una por una, las operaciones que es capaz de hacer un ordenador digital son, en general, operaciones simples que cualquier persona medianamente instruida puede realizar también.

Las principales características del ordenador son, sin embargo, como ya vimos su exactitud y rapidez, que le permiten llevar a cabo en tiempos cortísimos un número muy elevado de estas operaciones simples.

Tomemos como ejemplo un cálculo simple de los que típicamente puede realizar con más facilidad un ordenador que cualquier persona: sumar los primeros mil números.

Para resolver un problema de este tipo, el ordenador no actúa como nosotros, es decir, no sitúa un número tras otro y realiza su suma total, sino que primeramente suma dos de ellos, a este resultado suma el tercero, al total el cuarto y así sucesivamente hasta agotar los números propuestos.

El algoritmo que habría que preparar para que la máquina llevase a cabo una operación de este tipo sería:

a) Suma al primer número (a,) el segundo (a2).

b) Al resultado obtenido en a) súmale el tercer número (a3).

c) Al resultado obtenido en b) súmale el cuarto número (a4);

d) continuando esta relación hasta que la máquina realizase las mil sumas.

El diagrama de flujo de este tipo de algoritmo, que recibe el nombre de algoritmo directo, sería:

Como se puede observar, un algoritmo de este tipo, bastante frecuente en los ordenadores, presenta una característica muy especial: la iteración; esto es, la repetición continuada de una misma instrucción.

Esta circunstancia obliga a la máquina a almacenar en su memoria un elevado número de instrucciones –aunque sean del mismo tipo– y de datos, por lo que es interesante en casos como este introducir un concepto de algoritmo que, si en principio puede parecer más complicado, resuelve con facilidad este tipo de problemas: los algoritmos iterativos.

Este tipo de algoritmos, además del punto inicial y final, está formado únicamente por un conjunto de instrucciones elementales, un test que indica cuándo ha acabado el proceso, y una nueva variable, llamada contador, que se va incrementando en cada iteración hasta que alcanza un valor que indica cuándo debe acabar el proceso.

Un algoritmo es directo cuando su desarrollo está constituido por una serie finita do pasos elementales consecutivos, por lo cual el esqueleto del diagrama de flujo correspondiente al mismo consiste únicamente en una línea recta.

En el esquema se muestra el diagrama de flujo correspondiente al algoritmo directo aplicado para lograr la suma de mil números, compuesto por mil órdenes consecutivas.

►Suma de los Primeros 1000 Números

Utilizando este tipo de algoritmo, el problema de la suma de mil números vendría representado por el siguiente diagrama de flujo:

diagrama de flujo para un algoritmo

Significa que el proceso comienza con un valor para el contador de k = 2, de tal forma que la primera operación elemental realiza la suma a1 + a2.

Como el valor del contador no es 1.000 como indica el test, el valor de k cambia a k + 1, es decir, 2+1=3. siendo la próxima operación la suma anterior más a3.

Este proceso continúa hasta que k alcanza el valor de 1.000, momento en el cual el algoritmo termina.

Es importante señalar que en informática el signo = no tiene el mismo sentido que en matemáticas (donde, evidentemente, la expresión k = k + 1 es falsa), sino un sentido de «sustituir por».

La utilización de algoritmos iterativos reduce considerablemente la extensión del algoritmo, y por tanto de la programación; baste pensar que, utilizando este tipo de algoritmos, la suma de 10.000 números, por ejemplo, se calcula por medio de un algoritmo similar al anterior, solo que cambiando en el test la cifra de 1.000 por 10.000, mientras que en un algoritmo directo sería necesario escribir 10.000 pasos diferentes.

En contra del uso de algoritmos de este tipo se puede aducir que, para una sola instrucción que la máquina ha de realizar en un algoritmo directo –sumar dos números-, con un algoritmo iterativo ha de hacer cuatro –sumar dos números, sumar un número al contador, realizar una comparación, y una ruptura de la secuencia-, lo que se traduce en un mayor tiempo de cálculo; sin embargo, de forma general, todos los problemas complejos se programan mediante algoritmos iterativos.

Fuente Consultada:
La Revolución Informática – Aula Abierta Salvat – Sebastián Dormido – Mariano Mellado –

Historia de la Computacion Generaciones y sus Caracteristicas

Historia de la Computación
Principales Características de las Generacionesas

TEMAS TRATADOS:

1- Introducción y Antecedentes Históricos

2- Primeras Máquinas Mecánicas de Calcular

3- Evolución del Computador Electrónico

4- Generación de Computadoras

  a) Primera Generación

  b) Segunda Generación

  c) Tercera Generación

  d) El Chip o Microprocesador – Cuarta Generación

5- Medir la Memoria – Almacenamiento de Datos – Tareas de una Computadora

6- Fechas Claves de la Historia de la Computación

7- Primeras Palabras de la Computación

————-  00000 ————

• ►HISTORIA DE LA COMPUTACIÓN:

Los primeros seres humanos usaban el método más obvio para contar, sus dedos.

Pero estos esfuerzos de cálculo estaban limitados a cantidades bastante pequeñas; además los dedos no eran medios adecuados de registro de datos, particularmente cuando fue necesario un lenguaje de signos.

Dos medios precoces de registro de datos y cálculo llevaban consigo el uso de diagramas y piedras.

Los dibujos con carbón de leña de los pueblos primitivos muestran el uso de marcas para registrar cantidades de ganado.

Las marcas podían ser añadidas o borradas según estos inventarios eran consumidos o repuestos.

Una aproximación al problema igualmente simple seguía una relación uno-a-uno: una piedra equivalía a una unidad de bienes.

Los pastores utilizaban este principio para controlar sus rebaños, asociando una piedra con una oveja.

En la terminología de hoy, podríamos decir que los pastores guardaban un inventario de sus ovejas.

Aunque los términos puedan cambiar a través del tiempo, el principio sigue siendo el mismo.

Los inventarios se realizan con un planteamiento uno-a-uno.

La dificultad de usar piedras era su falta de portabilidad.

Un gran rebaño significaba literalmente cientos de piedras y por tanto penalizaba los recursos físicos del pastor.

Así, los pastores pasaron a otros métodos de registrar los tamaños de los rebaños.

Nudos en cuerdas hechas de cuero de animales proporcionaron una solución, significando cada nudo de 5 a 10 ovejas.

Uno de los primeros dispositivos para facilitar el cálculo fue el abaco.

Este dispositivo utilizaba un esquema de numeración basado en los cinco dedos de la mano.

Pudo haber sido fácilmente una extensión del uso combinado de las tiras de cuero y las semillas.

Antes de comenzar a eneumerar las distintas maquina creadas por el hombre, vamos a decir que hay una que se ha destacado muy por encima de las demás: el llamado ordenador electrónico o computador.

Desde su origen se lo ha comparado como una especie de cerebro humano y hasta ha recibido de «cerebro electrónico».

Su función se ha debatido en todos los rincones intelectuales y se ha llegado a polemizar sis estas maquinas piensan realmente o no.

Sin  dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina de calcular, por muy sofisticada que ésta sea, solo podemos afirmar que en lo único que se ve superado el cerebro por la máquina es en la velocidad de cálculo, probablemente de ahí venga su mitificaclón.

• ►Antecedentes Históricos

Si intentamos encontrar el origen de las máquinas de calcular, y no somos demasiado rigurosos en cuanto a las características exigidas para ser consideradas como tales, podemos retroceder varios miles de años, sin poder precisar cuántos, hasta llegar al más elemental de los utensilios destinados a facilitar el cálculo: el abaco.

Aun a pesar de su antigüedad, sigue utilizándose actualmente en algunos países asiáticos, donde tuvo su origen.

El abaco está constituido por una tablilla dividida en varias columnas, la situada más a la derecha corresponde a las unidades, la anterior a las decenas, y así sucesivamente.

abaco

Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

En cada columna podemos distinguir cinco cuentas elementales y dos cuentas que representan cinco unidades colocadas en la parte superior.

Una vez representado un número mediante todos sus dígitos en las columnas apropiadas, para proceder a sumarle otro bastará con ir acumulando dígito a dígito, de forma que si al realizar la adición en alguna de las columnas se llega a tener diez cuentas, éstas se eliminarán y se sumará una cuenta en la columna situada a su izquierda.

Con un poco de paciencia y algo de práctica se pueden realizar, con este simple utensilio, adiciones y sustracciones de números grandes a velocidades bastante elevadas.

EL ABACO: Nadie sabe cuándo se introdujo el uso del abaco, pero probablemente ya era conocido en Egipto al menos en el 500 a. J.C. Consiste, en lo esencial, en hileras de cuentas, a veces enhebradas.

En su forma más simple, cada hilo tiene diez cuentas: la primera hilera representa las unidades, la segunda las decenas, la tercera las centenas y así sucesivamente. Las cuentas pueden manejarse igual que movemos los dedos de una mano para sumar y restar elementalmente.

La ventaja radica en que se dispone de nueve o diez «manos» —tantas como hileras de cuentas — , y los movimientos efectuados son más sencillos y rápidos que los requeridos por la cuenta con los dedos.

Una persona hábil puede utilizar el abaco a gran velocidad para multiplicar, dividir y realizar muchas operaciones aritméticas complicadas. Se trata del primer dispositivo realmente importante concebido por los seres humanos para contar.

A lo largo de la historia se han inventado otras muchas máquinas que no vamos a considerar como prototipos de los actuales ordenadores por su sencillez, hasta que en el siglo XVII el filósofo y científico francés Blaise Pascal, cuando tan sólo contaba 18 años de edad, inventó su máquina calculadora.

pacalina de pascal

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

La máquina en cuestión estaba construida a partir de un determinado número de medas dentadas (hasta la aparición de los relojes digitales, este tipo de ruedas ha sido el habitual en la industria relojera) de forma que al rodar 10 dientes de la primera rueda, avanzaba un diente de la segunda; al rotar 10 dientes de la segunda, avanzaba un diente de la tercera, y así sucesivamente.

Evidentemente, dicha máquina sólo servía para sumar y restar; además, su utilización era tan farragosa que no suponía ninguna ventaja práctica respecto al cálculo manual, más bien todo lo contrario.

La máquina diseñada por Pascal sirvió de base para la que un siglo más tarde construyó el matemático alemán Leibniz.

El objetivo de Leibniz era mucho más ambicioso, ya que para él la máquina no era más que un puente entre el enunciado de un problema y su resolución. De alguna forma daba a su máquina el sentido que en la actualidad damos a los algoritmos.

Blais Pascal

La máquina original de Pascal sólo servía para la adición y la sustracción, la perfeccionada por Leibniz también permitía multiplicar y dividir mediante sumas y restas sucesivas.

Para ello utilizaba cilindros con dientes de diferentes longitudes, ajustando por encima de ellos otros engranajes más pequeños, cada uno de los cuales representaba una cifra del multiplicando y estaba situado de forma que cada giro completo del conjunto de engranajes largos registraba una vez el multiplicando, y el multiplicador se expresaba mediante el número de giros de los engranajes largos.

Cuando en el siglo XIX se comercializaron las primeras máquinas de calcular, su sistema de funcionamiento estaba basado precisamente en este mecanismo.

historia de la computacion y computadoras

Calculadora diseñada y construida por Mattieu Hahn en 1779. Se estima que es la primera máquina de calcular capaz de realizar las cuatro operaciones aritméticas.

historia de la computacion y computadoras
Máquina de multiplicar diseñada para realizar la operación directamente, sin recurrir a la repetición de adiciones. Fue construida por León Bollée en 1887.

historia de la computacion y computadoras

Máquina tabuladora eléctrica de Hollerith patentada en 1889. Dos veces más veloz que las restantes máquinas contemporáneas, la tabuladora eléctrica es la madre de las modernas máquinas de tratamiento de datos. Se utilizó en 1890 para elaborar el censo de los Estados Unidos de América.

Las Máquinas de Babbage

Ya en el siglo XIX, el matemático inglés Babbage dio un gran impulso al diseño de máquinas matemáticas, como él mismo las denominaba.

Dedicó toda su vida a dichas máquinas y encontró problemas insalvables a la hora de llevar a la práctica sus proyectos, ya que la complejidad mecánica que conllevaban era excesiva para aquella época.

Su obsesión por sus máquinas fue tan grande que se convirtió en una persona huraña y amargada, él mismo llegó a afirmar que no había conocido ni un solo día feliz en su vida.

Entre sus innumerables trabajos podemos citar la elaboración de una tabla de logaritmos que obtuvo gran éxito, así como unas tablas de mortandad con las que pretendió popularizar los seguros de vida.

En cualquier caso, su principal objetivo era construir máquinas que calculasen e imprimiesen tablas matemáticas. Ideó un pequeño modelo que consistía en 96 ruedas y 24 ejes, al que denominó «máquina diferencial».

maquina de babage

Pascal y Leibniz construyeron máquinas calculadoras (véase 1642 y 1693), pero sólo permitían efectuar las tareas más sencillas.
Hacia 1822, el matemático inglés Charles Babbage (1792-1871) empezó a pensar en algo mucho más ambicioso.

Deseaba una máquina que funcionara con tarjetas perforadas, como un telar de Jacquard (véase 1801), capaz de almacenar respuestas parciales a fin de reservarlas para operaciones adicionales que se efectuarían posteriormente, y capaz asimismo de imprimir el resultado.

Todo cuanto imaginó era factible, pero no por medios meramente mecánicos, aplicando las técnicas de la época.

Babbage pasó casi el resto de su vida tratando de construir la máquina, mientras sus planes eran cada vez más grandiosos. Babbage había concebido el moderno ordenador, pero carecía de los necesarios conmutadores eléctricos. Se precisaría un siglo para desarrollarlos.

Babbage estimó necesario tres años para construir dicha máquina para el gobierno británico, pero a medida que avanzaba en su construcción, ideaba nuevos sistemas que hacían inútil todo el trabajo realizado anteriormente.

Después de cinco años tuvo que abandonar el trabajo por problemas económicos.

Pronto olvidó el viejo proyecto para niciar uno nuevo al que denominó «máquina analítica» y que -según él mismo dijo- era «una máquina que se muerde su propia cola», ya que los resultados que producía podían ser utilizados como catos de entrada para un nuevo cálculo.

La máquina analítica estaba diseñada oara ser capaz de realizar cualquier operación matemática y se puede considerar como la primera máquina programare, aunque el programa era externo a la máquina.

Según el diseño, debía disponer de una memoria capaz de almacenar  1.000 números de 50 cifras, podía utilizar funciones auxiliares que constituían su propia biblioteca, podía comparar númeeros y actuar de acuerdo con el resultado de la comparación; en definitiva, su estructura era muy parecida a la de los cimeros ordenadores electrónicos.

Precisamente, su principal limitación era que para su funcionamiento no podía contar con la electrónica, teniendo que conformarse con la mecánica.

Toda la información se almacenaba en grandes tarjetas perforadas que contendrían tanto los datos como los programas y el mecanismo de funcionamiento se basaba en alambres, que según pudieran atravesar o no los orificios de las tarjetas, ponían en marcha los engranajes oportunos.

Los fracasos, debidos a la gran complejidad del sistema, fueron continuos y el proyecto quedó abandonado.

No osbtante, Babbage estaría hoy orgulloso si pudiera comprobar cómo su lógica ha sido adoptada en los modernos ordenadores electrónicos.

Calculadora electromecánica

El censo norteamericano ganaba en complejidad. Cada vez había más habitantes, y crecía el número de preguntas que se formulaban a cada persona.

La información recogida era tan voluminosa, que llevaba literalmente años elaborarla.

El inventor norteamericano Hermán Hollerith (1860-1929), que trabajaba en el censo, pensó que podía mejorarse la manera de manejar los datos, y a partir de 1880 se lanzó a la tarea de encontrarla. Empleó tarjetas perforadas similares a las de Jacquard y Babbage.

Cada tarjeta podía ser perforada para representar los datos recogidos en el censo: distribuidas en los lugares apropiados, las perforaciones representaban sexo, edad, ocupación, etcétera.

Hermann Hollerit

Hermán Hollerith (1860-1929)

Con objeto de sumar y analizar toda esta información, las tarjetas se colocaban en un montón, y un dispositivo metálico presionaba sobre ellas.

El dispositivo tenía muchas agujas, que eran detenidas por la cartulina, pero cuando encontraban una perforación, pasaban a través de ella y alcanzaban un recipiente de mercurio situado detrás.

Entonces discurría a través de esas agujas una corriente eléctrica que transmitía una señal a un cuadro.

Como las tarjetas perforadas pasaban rápidamente por esa máquina, sólo era necesario tomar nota de los números que iban apareciendo en el cuadro.

La diferencia fundamental entre los ingenios de Hollerith y de Babbage era que el primero hacía uso de la electricidad.

O sea que desarrolló una calculadora electromecánica, y no meramente mecánica.

Con el tiempo, Hollerith fundó una compañía dedicada a construir toda clase de máquinas capaces de manejar y analizar información.

Esa empresa creció hasta convertirse en la International Business Machines Corporation, conocida generalmente como IBM.

tarjeta perforada

Una Antigua Tarjeta Perforada

Evolución hacia el ordenador electrónico

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquin; ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944 John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945 Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

LAS MAQUINAS ELECTROMECÁNICAS DE CONTABILIDAD

Hacia el ordenador actual

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina.

Para ello se valló de los grandes adelantos de la electrónica en esos momentos.

En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial.

En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

 computadora electrónica

Historia de la Computación:
Generaciones de los Ordenadores:

Desde que en la primera parte de la década de los cincuenta se empezaron a utilizar los ordenadores con fines comerciales, éstos han evolucionado hasta el punto de que se pueden distinguir tres generaciones distintas y claramente diferenciadas.

El método que nos permite decidir en qué momento termina una generación y empieza otra se basa fundamentalmente en dos características: la tecnología empleada para la construcción de los ordenadores yía arquitectura de los sistemas.

Describiremos a continuación las diferencias existentes entre las tres generaciones, tanto desde el punto de vista de las características físicas de los equipos, como desde la perspéctiva de las dinstintas técnicas de organización y explotación.

HISTORIA: PRIMERA GENERACIÓN DE COMPUTADORAS:

Los ordenadores pertenecientes a la primera generación estaban basados fundamentalmente en válvulas electrónicas, por ese motivo su tamaño era muy grande y su mantenimiento complicado; se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración.

Otra característica de los ordenadores de esta generación era la escasa fiabilidad; por ejemplo, el tiempo medio entre dos averías de una unidad central era inferior a la hora, esto implicaba que para garantizar el buen funcionamiento de un equipo se necesitaba la total dedicación de un grupo de personas encargadas del mantenimiento.

Los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de programas largos implicaba esperas incluso de varios días.

La forma de ejecutar los trabajos en los ordenadores de esta generación era estrictamente secuencial: el programa, que previamente se había perforado en tarjetas, se cargaba en la memoria del ordenador y, a continuación, se ejecutaba, procesando las instrucciones de entrada de datos desde cualquiera de los dispositivos de que se disponía, las instrucciones de cálculo y las de salida de información.

En cada instante el ordenador no se dedicaba más que a una única tarea, por lo que si se estaba realizando un proceso de lectura de fichas perforadas, el resto de los componentes del sistema permanecían ociosos hasta finalizar la lectura.

• UN PASEO HISTÓRICO:

Los años 30 vieron la aparición de la investigación que iba a conducir a las primeras computadoras.

En 1934, bajo la supervisión del Dr. John V. Atanasoff en el Iowa State College, se modificó una máquina de proceso de tarjetas para realizar cálculos aritméticos bajo controles activados mecánicamente.

Unos cinco años después, el Dr. Atanasoff y Clifford Berry construyeron la computadora Atanasoff-Berry o ABC, que estaba formada por válvulas de vacío y poseía una memoria limitada en la que los datos que iban a ser procesados podían almacenarse.

Investigaciones paralelas sobre sistemas electromecánicos se producían mientras tanto en otros lugares.

En Harvard en 1937, el Dr. Howard Aiken y sus ayudantes, en colaboración con IBM, concibieron la idea del Mark I, que fue reconocida posteriormente como la primera computadora.

El Mark I pesaba unas 10.000 libras, medía unos 50 pies de largo y contenía unas 760.000 partes móviles.

Una estructura similar a un programa que consistía en series de instrucciones se empleó para dirigir al Mark I en sus cálculos.

Mientras que las actividades mencionadas anteriormente recibían la aclamación pública, técnicos investigadores británicos trabajaban en secreto en una computadora llamada Colussus.

Sólo recientemente ha salide a la luz lo relativo a este proyecto y su impacto en el esfuerzo bélico británico.

El Colussus se usó para romper los códigos de comunicación nazis y esclarecer las estrategias alemanas.

La computadora podía leer datos codificados a una velocidad de 5.000 caracteres por segundo, analizar sus contenidos textuales, y dar salida al material codificado transformado por medio de una máquina de escribir eléctrica.

La computadora Colussus demostró que una gran cantidad de intrincados circuitos electrónicos podía manejar adecuadamente cálculos a gran velocidad.

Los militares teóricos se dieron cuenta rápidamente del potencial que las computadoras podían tener en la guerra moderna y urgieron a que se dieran de programa almacenado, una idea que revolucionó la informática.

La mayoría de las computadoras anteriores al EDSAC eran dirigidas por paneles de control cableados para realizar un conjunto específico de tareas.

Un cambio en el tipo de tareas significaba un gran esfuerzo en cablear la computadora para una nueva tarea.

El Dr. von Neuman teorizó que una computadora no debería estar controlada exteriormente por un conjunto de cables, sino directamente en su proceso por una serie de instrucciones, contenidas directamente en su memoria.

Un programa almacenado dentro de la computadora dirigiría todo el procesamiento, iniciando la entrada de datos a la computadora, dirigiendo la impresión de los resultados del procesamiento y controlando la actuación de las operaciones aritméticas.

El programa almacenado en la computadora podría controlar un conjunto completo de actividades y, por tanto, dirigir el procesamiento de la computadora de una tarea específica.

El siguiente programa dentro de la memoria de la computadora podría llevar a cabo una tarea diferente sin necesidad de volver a cablear el computador.

Esencialmente, la computadora poseería la capacidad de realizar una variedad de operaciones de procesamiento, cualquiera de las cuales podría ser iniciada por el programa almacenado dentro de su memoria. EDSAC proporcionó el vehículo para probar la realidad del concepto de programa almacenado de Von Neumann.

Una de las computadoras accesibles comercialmente fue el UNIVAC I, introducido en 1951.

La computadora fue diseñada bajo la supervisión de Mauchly y Eckert para la oficina del censo de los EE. UU. El UNIVAC I introdujo los prototipos de lenguaje de programación y técnicas que fueron desarrolladas para su uso en futuras computadoras.

Fue en esta época cuando IBM entró en la industria informática presentando su primera computadora, el IBM 701, en 1953.

Al cabo de un año, IBM introdujo su sistema IBM 650, que demostró ser una de las computadoras más populares de esa época.

Podía realizar operaciones con tarjetas de computadora, dando posteriores modelos de esta máquina soporte a dispositivos más sofisticados.

Posteriormente, IBM presentó sus computadoras 702 y 704, diseñadas para las áreas de los negocios y la ciencia respectivamente.

Las computadoras discutidas en esta sección, desde el MARK I al IBM 704, son representativos de la primera generación de computadoras.

Eran máquinas grandes, extremadamente voluminosas, que eran difíciles de programar y limitadas en su rango de actividades.

El componente más usado en la construcción de las computadoras de la primera generación fue el tubo de vacío, que generaba gran cantidad de calor y consumía grandes cantidades de energía eléctrica.

eniac computador

Uno de los primeros usuarios de la computadora ENIAC fueron las fuerzas armadas de EE. UU. Esta computadora, el primer dispositivo completamente eléctrico construido, fue producto del trabajo de Mauchly y Eckert. (UPI.)

HISTORIA: LA SEGUNDA GENERACIÓN DE COMPUTADORAS:

Las diferencias entre la primera y la segunda generación de computadoras fueron su construcción y las capacidades operativas que proporcionaban.

Las computadoras de la segunda generación estaban construidas con transistores, pequeños componentes eléctricos desarrollados en los laboratorios Bell en 1947 y perfeccionados a lo largo de 12 años de trabajo.

El transistor era más pequeño y fiable en el tubo de vacío y ofrecía mayor velocidad interna de proceso, medida en microsegundos (millonésimas de segundo).

Una de las tecnologías perfeccionadas con la segunda generación de computadoras fue el almacenamiento en cinta magnética, originalmente introducido con la primera generación de mediados de los 50.

Los datos se grababan en cintas magnéticas de la misma manera en que se graba la música en su grabadora casera.

Las cintas magnéticas ofrecían a los usuarios la capacidad de almacenar grandes cantidades de datos en un medio que era rápidamente accesible.

Durante el período de los sistemas de la segunda generación, los fabricantes hicieron hincapié en el desarrollo de lenguajes de programación menos técnicos que fueran más fáciles de emplear para los usuarios.

Los lenguajes introducidos durante el período de 1958 a 1963 incluyen lenguaje ensamblador, FORTRAN y COBOL; el FORTRAN fue aplicado a los problemas científicos y el COBOL fue diseñado para uso en negocios.

El concepto de separar las actividades científicas y de negocios, fue aplicado también a las computadoras de la segunda generación.

Dos de los mayores sistemas de esta categoría fueron las series IBM 1401 e IBM 1600. Las series 1401 estaban diseñadas para realizar operaciones de proceso de datos que involucraban datos numéricos y alfabéticos.

Las series 1600 tenían asignadas aplicaciones científicas en las que se empleaban principalmente datos numéricos. Cada tipo de computadora era diseñada para uso restringido de un área específica.

Es conveniente en este momento presentar y definir los siguientes términos relacionados con el manejo de datos sobre computadoras.

Hardware es el soporte físico que permite el procesamiento de los datos.

Software consiste en programas de computadora que dirigen al hardware en la realización de sus tareas informáticas.

Para que una computadora lleve a cabo cualquier tarea, se la debe suministrar una serie de instrucciones en forma de programa. Software es el término general aplicado a los diversos programas que pueden ser usados para el tratamiento informático de los datos.

HISTORIA: TERCERA GENERACIÓN DE COMPUTADORAS:

Como las dos generaciones anteriores, la tercera generación de computadoras estuvo marcada por un gran cambio en la tecnología.

La construcción de la tercera generación de computadoras se basó en los circuitos miniaturizados, un producto lateral del esfuerzo espacial americano.

Estos circuitos avanzados reemplazaron el cableado convencional asociado con los primeros sistemas de computadoras y ofrecieron mayores velocidades internas.

Las computadoras de la tercera generación fueron capaces de alcanzar velocidades operacionales de nanosegundos (mil-millonésima de segundo), procesando muchos millones de instrucciones en un solo segundo.

Fue con la aparición de los sistemas de la tercera generación, cuando las computadoras comenzaron su aparición en todos los aspectos de la sociedad americana.

Cuando las computadoras habían sido poco usadas, ahora se hacían importantes herramientas de organizaciones que manejaban todo tipo de datos.

El sistema computador de la compañía llegó a ser una de las primeras cosas consideradas cuando se querían promover los negocios, implicando la puesta al día de la organización y su capacidad de servir cada necesidad del cliente.

Uno de los mayores sistemas de computadoras que aparecieron durante este período, fue el sistema IBM 360.

Fue la amplia aceptación del sistema 360 y su uso con éxito en todas las áreas de la ciencia y los negocios, lo que hizo de él un hito en la tercera generación de computadoras.

El sistema 360 representaba tal cambio respecto del hardware de la segunda generación, que fue clasificado como una computadora de propósito general.

Fue diseñado para llevar a cabo actividades de procesamiento científicas y de negocios.

Su diseño permitía a los usuarios la flexibilidad de realizar el amplio rango de actividades que deben emprender las modernas corporaciones.

Una importante unidad hardware, que complementó a la tercera generación de computadoras, fue el disco magnético.

El disco magnético supuso un cambio significativo respecto a todos los dispositivos de almacenamiento anteriores, ya que permitía el acceso aleatorio a los datos contenidos en los archivos de las computadoras.

Previamente, los datos sólo podían ser almacenados secuencialmente, y a un registro individual sólo podía accederse después de que todos los registros anteriores hubieran sido explorados.

Usando técnicas de almacenamiento en disco, los programadores pudieron acceder a elementos específicos de los datos directamente, sin involucrar otros registros de este archivo.

Por tanto los archivos de las computadoras podían componerse en series de registros, con cualquier registro accesible e independientemente vía disco magnético.

El potencial de tratamiento de datos ofrecido por los discos magnéticos fue inmediatamente reconocido en el área de los negocios.

Las empresas que previamente estaban limitadas por la incapacidad de acceder a los datos directamente, ahora podían servir inmediatamente a sus clientes; el deseo de los ejecutivos de información más rápida podía ser satisfecho ahora de una manera realista.

La nueva capacidad se aplicó a los sistemas de reserva de billetes aéreos.

Los sistemas anteriores necesitaban días para confirmar las reservas de los clientes, siendo gran cantidad del manejo de datos externa a la computadora.

Con el soporte del disco, fue posible responder a las peticiones de reserva de los clientes mientras éstos esperaban al teléfono.

Se consiguieron también grandes avances en la transmisión de datos entre sistemas de computadoras y usuarios localizados a muchos kilómetros de distancia.

Los datos de las computadoras se podían transmitir por líneas telefónicas y por microondas a centros de computadoras, proporcionando así un soporte de procesamiento de alta velocidad a las organizaciones extensamente distribuidas.

El término telecomunicaciones, se introdujo para describir las actividades relacionadas con la transmisión de datos informáticos a través de líneas de comunicación.

IBM 360 generacion de computadoras

El sistema IBM 360 fue una importante computadora de la tercera generación.

Los fabricantes de computadoras se dieron cuenta rápidamente de que los usuarios requerían lenguajes de programación más adecuados a sus necesidades, con características eficaces no encontradas en los lenguajes de la segunda generación.

Los lenguajes de programación tenían que ser aprendidos más rápidamente, entendidos y ayudados por documentación adecuada para describir su uso.

Asimismo los fabricantes se dieron cuenta de que si los lenguajes de programación eran más fáciles de usar y aprender, habría más gente atraída por la computadora y potencialmente podrían adoptar su uso.

Las raíces de la revolución actual del uso de la computadora en la casa y en los negocios están en estas realizaciones.

Dos lenguajes que ganaron gran preeminencia con el hardware^de la tercera generación, fueron FORTRAN y COBOL.

FORTRAN fue el lenguaje preferido de la comunidad científica, ya que su formato algebraico era adecuado para expresar fórmulas y secuencias para resolver problemas.

COBOL se desarrolló para las necesidades específicas de la comunidad de los negocios, permitiendo directamente la manipulación de datos almacenados en archivos de computadora y la preparación de informes impresos.

Su formato, similar al inglés, contrastaba fuertemente con el formato algebraico del FORTRAN, y permitía a la gente del mundo de los negocios, no familiarizada con conceptos matemáticos, a entender el software relacionado con sus actividades. Este fue un factor importante en la amplia aceptación que tuvo en el citado círculo de profesionales.

discos magneticos

La aparición de los discos magnéticos significó el auge de las computadoras en los negocios y las hizo una importante herramienta de procesamiento de datos.

La oleada de actividades relacionadas con las computadoras que surgieron como consecuencia de la tercera generación, se centró en las necesidades de software del usuario individual.

Mucha gente estaba interesada en generar su propio software pero no tenían ni el deseo ni la inclinación a trabajar con los lenguajes entonces existentes.

Además, los usuarios querían interactuar directamente con la computadora mientras desarrollaban su software.

Fueron estos requerimientos los que llevaron al desarrollo del lenguaje de programación BASIC.

El BASIC está considerado como un lenguaje interactivo, ya que los usuarios pueden interactuar directamente con la computadora instrucción a instrucción a través de la terminal.

Un usuario sentado ante el teclado del terminal introduce las instrucciones requeridas y observa inmediatamente su efecto según se procesan estas instrucciones.

Dos términos asociados con el uso de un lenguaje interactivo son en línea (on-line) y teleproceso.

Los dispositivos terminales en línea transfieren directamente datos entre el usuario y la computadora.

El teleproceso implica actividades de telecomunicación y proceso de datos, donde intervienen pantallas similares a las de televisión.

Estas pantallas como las de televisión se llaman tubos de rayos catódicos (CRT).

HISTORIA: CUARTA GENERACIÓN DE COMPUTADORAS

A finales de la década de los setenta se produjo una nueva convulsión en el mundo de la informática: el nacimiento y posterior utlización masiva del microprocesador.

También se perfeccionaron notablemente las unidades auxiliares de almacenamiento y comunicación.

Esta es la generación vigente en la actualidad, en la que la microelectrónica ha volcado toda su innovación en el hardware de los ordenadores aportando circuitos integrados de media, alta y muy alta escala de integración, caracterizados por una elevadísima fiabilidad y alta velocidad de operación.

Lo que menos ha variado, al menos tan sustancialmente como lo hizo en anteriores saltos generacionales, son los procedimientos de explotación de la máquina.

El protagonista indiscutible de esta cuarta generación es el ordenador personal, cuyas prestaciones son equiparables a las de los miniordenadores e incluso grandes equipos operativos de hace muy pocos años.

El ordenador personal es el responsable de que la informática haya logrado la enorme popularidad de que goza en nuestros días.

La presencia del ordenador en la mesa de trabajo de muchos profesionales, e incluso en millones de hogares, es un hecho que ha pasado de inimaginable a plena realidad cotidiana.

EL CHIP DE SILICCIO:

La aparición del chip de silicio señaló el siguiente gran paso en la construcción de la computadora.

Sin embargo, una falta de consenso entre parte de los expertos en computadoras ha dejado sin aclarar la cuestión de si el chip constituye la cuarta generación de equipos de computadoras.

Aparte de esta controversia, el chip ha estado detrás de los perfeccionamientos y ha sido el componente más importante de la construcción de las actuales computadoras.

Una consecuencia del chip fue una mayor reducción del tamaño del hardware.

Los chips actuales empaquetan literalmente miles de circuitos; un chip puede contener instrucciones de programa o retener miles de datos.

Las computadoras que una vez ocuparon una habitación entera pueden construirse ahora en el espacio de un escritorio de oficina.

El sistema IBM 370 es uno de los sistemas que usa la tecnología de los chips. La figura 1.7 ilustra el sistema 370 y uno de los chips en su construcción.

El sistema 370 en sus diferentes nodelos es capaz de proporcionar soporte informático a grandes y pequeñas organizaciones.

Grandes cantidades de almacenamiento en disco, así como funciones de telecomunicación, son características del sistema IBM 370.

Otro tipo de computadora que tuvo importancia en los años 70, fue la minicomputadora.

Las minicomputadoras son más pequeñas que los sistemas de computadoras convencionales pero ofrecen capacidades de procesamiento similares a un precio competitivo.

Las minicomputadoras fueron introducidas inicialmente en 1965 por Digital Equipment Corporation pero alcanzaron amplia aceptación cuando los procesadores de datos descubrieron su limitado pero efectivo potencial de procesamiento. Ofrecen las mismas características operativas en los grandes sistemas pero en un grado menor.

La figura de abajo muestra las primitivas capacidades de proceso de discos y cintas magnéticas de las mini-computadoras.

La microcomputadora (o computadora casera) es otro resultado de la tecnología del chip. Los aspectos de proceso fundamentales de una computadora se reproducen en la intrincada circuitería del chip.

La microcomputadora puede usarse tanto para negocios como para actividades de recreo en casa.

El principal lenguaje de programación usado en microcomputadoras es el BASIC.

https://historiaybiografias.com/archivos_varios5/discos_magneticos1.jpg

Las antiguas minicomputadoras poseían las mismas características operativas que los grandes sistemas. Tanto las cintas como los discos magnéticos pueden ser usados en los sistemas minicomputadores para almacenar grandes cantidades de datos.

Las microcomputadoras ofrecen también capacidad de tener almacenamiento en cintas y discos.

Pequeñas cintas de cásete ofrecen almacenamiento secuencial de datos en cinta magnética.

Discos pequeños y flexibles, llamados floppy disks o disquetes, proporcionan las operaciones de almacenamiento en disco en las microcomputadoras.

Estos pequeños sistemas poseen también CRT con pantallas de color y muchos tipos de dispositivos impresores. Muchos tipos de software para negocios y entretenimientos son accesibles comercialmente para computadoras.

Tecnología moderna de las computadoras de los años 90:

Continuando el patrón marcado por las generaciones anteriores, las computadoras de la década del 90 se han hecho más rápidas, pequeñas y fiables.

Los dispositivos que apoyan a las computadoras actuales se han hecho igualmente sofisticadas y complejas.

Las tecnologías desarrolladas en otros campos se han aplicado a producir nuevos dispositivos para completar las capacidades de computación existentes.

Los dispositivos resultantes han acelerado el flujo de los datos de la computadora y añadido nuevas dimensiones al proceso de la información.

Muchos dispositivos computadores han incorporado láseres de baja potencia como parte de sus operaciones.

Las impresoras que usan el láser han alcanzado velocidades de hasta 21.000 líneas impresas por minuto.

Otro tipo de impresora de alta velocidad capaz de preparar múltiples informes en minutos utiliza la fibra óptica para transmitir y registrar datos.

Con la fibra óptica los datos se transmiten en forma de impulsos de luz a través de hilos hechos de silicio, aumentando así la velocidad de operación del dispositivo.

La industria de las computadoras ha incorporado satélites a sus servicios de comunicación de datos.

Muchas redes de computadoras usan satélites para transmitir rápidamente datos entre continentes y oficinas centrales ampliamente dispersas.

En algunas transmisiones por satélite se usan láseres de baja potencia para transmitir y guardar datos temporalmente.

Aparecieron los primeros servicios para transmisión digital a alta velocidad, reservados sólo para datos de computadora, funcionando con centros de satélite.

Las comunicaciones por satélite representan algunas de las actividades de telecomunicación más importantes de las hoy utilizadas.

LOS PRIMEROS ALMACENAMIENTOS MASIVOS DE DATOS:

La llegada del chip no ha significado el fin de la investigación en el área del almacenamiento de datos.

En 1979 Motorola Corporation presentó un chip que contenía el equivalente a 68.000 transistores.

Al cabo de dos años un chip de aproximadamente 1/2 pulgada cuadrada y capaz de almacenar 72.000 datos fue presentado por IBM.

La investigación está actualmente detrás de desarrollar un chip microminiaturizado que poseería una capacidad de almacenamiento multimillonario y funcionaría en milmillonésimas de segundo.

Aunque la investigación sobre microchips está en su etapa de desarrollo, otras técnicas de almacenamiento están empezando a demostrar que pueden tener su aplicación práctica.

Las memorias de burbujas magnéticas y el dispositivo de efecto Josephson están empezando a ser prcrnetedores.

El concepto de memoria de burbujas magnéticas se relaciona con el movimiento de burbujas electrónicas a través de una superficie magnética especial.

El movimiento de las burbujas crea unos impulsos que son traducidos por la computadora a un formato de datos codificados.

El dispositivo de efecto Josephson está usándose actualmente en prototipos de computadoras para perfeccionar su funcionamiento.

Este dispositivo de conmutación es muy prometedor por su capacidad de mover los datos dentro de la computadora a velocidades extremadamente altas.

El dispositivo de Josephson ha llegado a alcanzar velocidades del rango del picosegundo (billonésima de segundo). Estas altísimas velocidades, aunque actualmente

Cómo se mide la memoria de un ordenador

La forma de medir la memoria o capacidad de almacenamiento de información es idéntica para todas las unidades de un ordenador.

Basta con expresar el número de BITS que se pueden almacenar para dar una medida exacta de la capacidad de memoria, tanto en el caso de la memoria principal como en el de la memoria auxiliar (cintas magnéticas, discos…).

En cualquier caso, debido a la lógica con la que se almacenan los datos y a los órdenes de magnitud que sería preciso manejar, el bit no resulta una unidad apropiada. Por ello, se adoptan como unidades de medida determinados múltiplos del bit o unidad elemental de información binaria.

Estas unidades son:

Palabra
Se denomina palabra a toda cadena de bits utilizada para representar un único ente de información (carácter alfabético, cifra numérica…).

Byte (octeto)
Palabra constituida por un conjunto de oche dígitos binarios o bits. En algunos casos el octeto puede considerarse como una subdivisión del formato de palabra con el que opera determinado ordenador; así, puede hablarse de palabras de 2 y 4 octetos, según estén formadas por 16 ó 32 bits.

Kilo-byte (KB)
Un Kbyte equivale a 1.024 octetos o bytes (esto es: 8.192 bits). El hecho de corresponder a 1.024 y no a 1.000 se debe a que un Kbyte es igual a 210 (la base del sistema binario elevada s exponente 10). Esta unidad es la más comúnmente utilizada para medir la capacidac de almacenamiento de la memoria de un ordenador.

Megabyte (MB)
Para la representación de grandes volúmenes de memoria, como la que corresponde a un disco magnético rígido, el Kbyte resulta una unidad muy reducida. De ahí que se haya hecho necesario definir otra unidad de rango superior, el «Mbyte», que equivale a un millón de octetos o bytes.

LAS TAREAS QUE PUEDE REALIZAR UN COMPUTADOR

Procesamiento de información Preparación de nóminas y facturas

Mantenimiento de la información de inventarios

Mantenimiento de las cuentas de clientes

Procesamiento técnico de la información de referencia por medios de comunicación y bibliotecas públicas

Cálculo del impuesto a la renta.

Mantenimiento de los registros estudiantiles en las universidades

Mantenimiento de la información de vuelos y reservaciones en las aerolíneas.

Catalogación de los suministros de sangre en bancos regionales de sangre

Mantenimiento de cuentas corrientes en los bancos

Edición y reproducción de manuscritos mecanografiados

Mantenimiento de los registros criminales por los servicios de investigación

Mantenimiento de los registros de impuestos a la propiedad en una municipalidad Presupuesto de organizaciones e individuos

Registro de la distribución monetaria por las agencias gubernamentales de bienestar social

Modelos matemáticos

Análisis estadísticos de los datos de censos, datos biológicos, datos de ingeniería, etc.

Planeamiento de la producción y control de inventarios

Diagnóstico médico

Análisis orbital para satélites

Administración de la cartera financiera

Localización de estaciones de bomberos en una área urbana

Simulación de la decadencia económica en una ciudad

Planeamiento de dietas alimentarias en instituciones

Pronóstico estadístico

Planeamiento educativo y planeamiento de la ruta de buses escolares Diseño de sistemas de tráfico en autopistas y aeropuertos

Análisis químico

Diseño de sistemas de energía solar

Planeamiento, programación y control de proyectos complejos (tales como la construcción de un submarino, un edificio para oficinas o un estadio)

FECHAS HISTÓRICAS CLAVES DE LA HISTORIA DE LA COMPUTACIÓN:

Fecha desconocida  Abaco

1642 Machine arithmétique de Pascal

1671 Calculadora de Leibniz

1720 Tiras de papel perforadas de Bouchon para tejer

1801 Telar automático de Jacquard

1812 Máquina de diferencias de Babbage

1820 Calculadora de Thomas, disponible comercialmente

1833 Máquina analítica de Babbage

1830 Análisis de Lady Lovelace de las ideas de Babbage

1884 Máquina sumadora de Burroughs con capacidad de imprimir

1885 Calculadora de Felt capaz de realizar cálculos con varios dígitos

años 1880 y 1890 Trabajo de Hollerith en el censo de EE. UU.

años 1880 y 1890 Utilización de las tarjetas perforadas de Hollerith y de equipo de cálculo para analizar los datos del censo

1907-1910 Nuevo sistema de procesamiento con tarjetas de Power para el censo de EE. UU.

años 1930 a 1956 Primera generación de computadoras

1934 Trabajo de Atanasoff en Iowa

1937 Computadora Mark I de Aiken. Harvard

1939 Computadora Atanasoff-Berry (ABC)

1941 Colussus. británico

1946 Mauchly y Eckert inventan el ENIAC en la Universidad De Pennsylvania

1949 Concepto de programa almacenado de Von Neumann e invención del EDSAC

1951 Mauchly y Eckert inventan el EDVAC en la Universidad de Pennsylvania

1951 UNIVAC I

1953 IBM 701

1954 IBM 650 mediados 1950 IBMf702 y 704 mediados 1950 Cinta magnética

1957 a 1963 Segunda generación de computadoras

últimos 1950 a primeros Series IBM 1401 y 1600 1960

1964 a primeros 1970 Tercera generación de computadoras mediados 1960 a primeros IBM System/360

1970 mediados 1960 Disco magnético

1965 Mínicomputadoras primeros

1970 Chip de silicio primeros 1970 IBM System/370 últimos

1970 Fibras ópticas últimos

1970 Microcomputadoras

1979 Chip microprocesador últimos 1970 Memoria burbujas magnéticas

1980 Dispositivo de conmutación de efecto Josephson años 1980 Computadoras de conexión compatible
años

1990 Primeras Experiencias de Inteligencia artificial

2000 Internet

GLOSARIO PRIMITIVO DE COMPUTACIÓN:

Almacenamiento en cinta magnética. Una técnica de almacenamiento en la que los datos son accedidos secuencialmente desde los ficheros grabados en la superficie de la cinta magnética.

BASIC. Un lenguaje de programación que permite al usuario interactuar directamente con la computadora.

COBOL. Lenguaje de programación asociado fundamentalmente con las aplicaciones comerciales.

Compatibilidad de conexión. La propiedad de la mayoría de computadoras modernas que permite que los dispositivos funcionen juntos adecuadamente por medio de una simple interconexión.

Computadora de propósito general. Una computadora capaz de tratar problemas científicos y comerciales.

Concepto de programa almacenado. El concepto debido a Von Neumann que propone que el programa y sus datos estén en la computadora, controlando su operación.

CRT. Letras iniciales de cathode ray tube (tubo de rayos catódieos), usadas para describir un terminal que muestra datos de forma similar a los televisores.

Chip de silicio. El componente de la computadora usado para construir computadoras posteriores a la tercera generación. En él hay miles de circuitos para guardar datos o instrucciones del programa.

Disco magnético. Técnica de almacenamiento en la que los registros individuales de datos pertenecientes a ficheros son accedidos directamente de forma aleatoria.

Disquete. Pequeño disco flexible utilizado como memoria en sistemas de microcomputadora.

En línea. La capacidad de un usua-i o de tener acceso directo al • >mputador para realizar el procesamiento de datos.

Fibras ópticas. Una tecnología en la que se transfieren los datos en forma de impulsos de luz por líneas de comunicación hechas de silicio.

Floppy disk. Sinónimo de disquete.

FORTRAN. Un lenguaje de programación desarrollado en los años 1950 que utiliza formato algebraico y está bien adaptado a las aplicaciones científicas.

Hardware. El término aplicado generalmente a todos los dispositivos en los que se realizan procesamientos informáticos de datos.

Inteligencia artificial (AI). Una técnica de investigación que pretende dar a las computadoras los recursos para tomar decisiones en respuesta a cambios en las condiciones operativas.

Lenguaje interactivo. Un lenguaje de programación que permite a los usuarios comunicarse con la computadora en el procesamiento de datos.

Microcomputadora. El sistema informático más pequeño, construido con chips de silicio y aplicado en el hogar y los negocios.

Minicomputadoras. Computadoras orientadas a tareas, introducidas por primera vez en 1965. y que ofrecen un potencial de procesamiento similar al de los sistemas grandes poro a un precio competitivo.

Primera generación de computadoras. Las primeras series de computadoras eran grandes, voluminosas, difíciles de programar y estaban construidas con tubos de vacío.

Programa. La serie de instrucciones escrita en el lenguaje del computador y que le dirige en sus tareas de procesamiento.

Segunda generación de computadoras. La segunda era impártante de la informática, en fe que las computadoras se cpnstrüían con transistores.

Software. El término aplicado’a los programas que dirigen y:x;ontro-lan el procesamiento de la computadora.

Telecomunicaciones. El uso de alguna forma de línea de comunicación que conecte a los usuarios con la computadora y permita el tratamiento en lineare los datos.

Fuentes Consultadas:BASIC ESTRUCTURADO Editorial Mc Graw Hill-Capitulo I:Una Perspectiva de la Informática – Lawrence S. Orilia

Temas Relacionados

• Historia y Funcionamiento de Internet
• Breve Historia de la Comunicación Humana
• El Mouse: Historia del Invento Para Computadora
• Uso de Computadoras en la Segunda Guerra Mundial
• Historia de la Computacion Generaciones y sus Caracteristicas
• Evolucion de las Microcomputadoras Historia y Evolucion Tecnologica
• Historia de la Tabla de Codigos ASCII:Lista de Codigos de Caracteres
• Que es un Microprocesador? Fabricacion Chip de Silicio Definicion
• Clasificacion de Virus Informaticos -Tipos de Virus y Antivirus
• Conceptos Basicos de Internet:Resumen Para Principiantes

Enlace Externo: Historia de las Computadoras