Historia de las Microcomputadoras

Que Es Un Algoritmo y un Diagrama de Flujo? Concepto y Ejemplos

Que Es Un Algoritmo y un Diagrama de Flujo? – Concepto y Ejemplos 

Podemos definir,  algoritmo como una secuencia ordenada de pasos  para resolver un determinado problema. Este concepto se usa mucho en informática, pues siempre debemos «enseñar» al microprocesador como debe ejecutar sus acciones para conseguir, por ejemplo, el cálculo de los materiales de una pared de una viviendas. Este concepto de «enseñar» se denomina PROGRAMAR y para ello se utilizan distintos lenguajes de programación, como Fortran, Dbase, Visual Basic, C++, etc.

programador de pc

En el paso del problema al programa una PC interviene en primer lugar el analista, que se encarga de definir el algoritmo de resolución, y el programador, que traduce dicho algoritmo al lenguaje adecuado a la aplicación de que se trate.

El ejemplo mas fácil para entender este concepto es cuando debemos realizar una comida y no sabemos como se hace. En tal situación para salvar este problema recurrimos a un libro de recetas en donde nos indica paso a paso las accines que debemos realizar para llegar a buen puerto.

Como se vé el término algoritmo no está unido, como podría pensarse, a procesos científicos más o menos complejos, sino que en muchas ocasiones utilizamos algoritmos específicos sin saber que lo estamos haciendo.

En el caso del cocinero antes indicado que sigue al pie de la letra una receta destinada a la elaboración de un plato.  Como comprobación, veamos una receta de cocina cualquiera que tendría que seguir un cocinero o cocinera que quisiese elaborar unas albóndigas de queso roquefort.

Para realizar este plato, habría que seguir los siguientes pasos.

• Primer paso: aplastar y mezclar con un tenedor mantequilla y queso roquefort a partes iguales hasta que los dos elementos se incorporen el uno al otro.

• Segundo paso: dejar reposar la mezcla en un sitio frío, hasta que se endurezca.

• Tercer paso: formar con la pasta endurecida pequeñas bolitas del tamaño de una nuez.

• Cuarto paso: pasar las bolitas construidas por un plato grande lleno de pan rallado.

• Quinto paso: colocar las albóndigas en forma de pirámide en un plato y mantenerlas en el refrigerador hasta el momento de servirlas.

A este lista de pasos, lo podríamos llamar algoritmo culinario, como se puede observar, esta receta de cocina no es más que una forma de algoritmo, ya que cumple todas las características que han de tener éstos: por un lado, se trata de una serie de instrucciones muy concretas que en ningún caso presentan ambigüedad, y por otro, aparecen expresadas de una forma secuencial con un número finito de pasos elementales.

Sigamos ahora con una caso mas técnico, supongamos que queremos resolver mediante un ordenador un problema simple, como, por ejemplo, conocer si el número 7.321 es un número primo (*).

(*): primo significa que solo es divisible por el 1 y por si mismo.

Este problema, tal y como lo hemos planteado, estaría claro para una persona, pero no para un ordenador, ya que, recordemos, no se trata de una máquina «inteligente», es decir, «no sabe qué hay que hacer» para averiguar si un número es primo o no.

La siguiente operación podría ser «decir» al ordenador qué es lo que debe hacer para resolver el problema propuesto. Es decir, dar a la máquina una orden como la siguiente: «divide el número 7.321 por todos los números enteros menores que 7.321 y averigua si alguna de estas divisiones es exacta».

Evidentemente la orden es ya mucho más clara; sin embargo, tampoco en este caso sería entendida por la máquina, ya que, como vimos, ésta es de tipo secuencial y por tanto necesita recibir órdenes dadas con un ritmo y un orden determinados.

Un conjunto de acciones de este tipo debería ser entonces de la siguiente forma:

a) Divide el número 7.321 por 2.

b) Si la división es exacta, para; si no, continúa.

c) Divide el número 7.321 por 3.

d) Si la división es exacta, para; si no, continúa, etc., etc.

Un procedimiento de resolución como el anterior, en el que las diferentes instrucciones están dadas paso a paso, recibe el nombre de algoritmo.

Un algoritmo es entonces algo así como una receta de cocina que está formada por una serie de instrucciones consecutivas que, en caso de seguirse, nos llevan al resultado final deseado.

La elaboración de un algoritmo para la resolución de un problema tan fácil como el propuesto en el ejemplo es una tarea relativamente sencilla; sin embargo, al aumentarla dificultad del problema, la complejidad del algoritmo necesario para su resolución aumenta también de forma espectacular, más cuando lo que sí es claro es que no existe ningún algoritmo que permita obtener algoritmos, y esta dificultad radica básicamente en que, como característica propia de todo algoritmo, éste debe estar formado por un número finito de pasos, cada uno de los cuales debe significar una acción perfectamente definida.

El algoritmo del problema es una de las partes más importantes para la resolución del mismo mediante un ordenador, ya que en él se encuentran las instrucciones que, al expresarse primeramente en lenguaje de programación y más tarde en lenguaje máquina, se transformarán en el programa según el cual el ordenador resolverá el problema propuesto.

Algoritmos para juegos: Uno de los muchos juegos que depende de la habilidad de los jugadores y no de la suerte es el denominado de «las quince cerillas». Para comenzar, coloque quince cerillas sobre una mesa. El jugador número uno toma de una a tres cerillas; a continuación el jugador número dos toma de una a tres cerillas, que guarda. Este proceso se sigue repitiendo hasta que no quedan más cerillas, y pierde el jugador que se ve obligado a tomar la última cerilla. La cuestión es la siguiente: ¿existe alguna estrategia que haga que el jugador que comienza pueda siempre forzar a su contrincante a tomar la última cerilla? Un análisis del juego demuestra que el jugador número uno puede obligar al jugador número dos a tomar la última cerilla si realiza las siguientes acciones: Primer movimiento: el jugador número uno toma dos cerillas.
Movimientos sucesivos: si el jugador número dos toma K cerillas (K<= 3), entonces el jugador número uno toma 4-K cerillas, y así hasta que logre dejar a su oponente la última cerilla. Siguiendo este algoritmo, el éxito es seguro.

EJEMPLOS: DIBUJANDO EL ALGORITMO, EL DIAGRAMA DE FLUJO:

Una de las características básicas que ha de cumplir todo algoritmo destinado a la solución de un problema es su falta de ambigüedad: sus acciones elementales deben estar expresadas de una forma tal que no quede en ellas ninguna posibilidad de duda. Esta premisa hace que los lenguajes naturales -español, inglés, francés, etc- no sean los más apropiados a la hora de expresar un algoritmo, ya que, en general, todos ellos son poco concisos, de tal forma que ciertas expresiones, fuera de un contexto, presentan un alto grado de ambigüedad.

Para evitar en parte este problema, los algoritmos se suelen expresar en un lenguaje gráfico en el cual todo el proceso aparece como un organigrama.

Este método, además de una mayor concisión en la expresión del proceso algorítmico, tiene sobre otros métodos la ventaja de dar una visión global de la estructura básica que posee el algoritmo.

Un organigrama consiste en un gráfico formado por una serie de líneas que conectan entre sí distintas figuras geométricas, cada una de las cuales representa un tipo de instrucción particular. Así, un óvalo representa tanto el comienzo como el fin del algoritmo, un rectángulo indica la existencia de una instrucción cualquiera, y un rombo representa el símbolo de decisión, esto es, el momento en que dentro del algoritmo se pueden tomar dos o más opciones distintas.

En el interior de estos símbolos se escribe taxativamente el tipo de orden que cada uno de ellos representa, y la línea que los une viene marcada con una flecha que indica la dirección en que se desarrolla el algoritmo.

Una de las diferencias esenciales entre este tipo de organigramas, llamados diagramas de flujo, y el lenguaje natural con que se pueden expresar también los algoritmos reside en los puntos de ramificación –toma de decisiones– del algoritmo.

El lenguaje natural es, por su propia naturaleza, secuencial, lo que implica que, en una toma de decisiones, siempre una de ellas antecede a la otra, cosa que no sucede cuanto el algoritmo se representa por medio de un diagrama de flujo en el que del punto de decisión parten simultáneamente las dos o más decisiones posibles. Es decir: los organigramas permiten una visión bidi-mensional del algoritmo, que no existe en el lenguaje natural.

Si suprimimos las distintas figuras geométricas del diagrama de flujo, este adquiere la apariencia de un árbol o grafo que se denomina esqueleto del algoritmo, el cual indica de una forma aproximada el tipo de algoritmo empleado.

simbolos diagrama de flujo

Arriba vemos tres simbolos para dibujar un diagrama de flujo. Combinando esos tres podemos dibujar cualquier razonamiento.

Ejemplo 1: Veamos el ejemplo del número primo:

diagrama de flujo

Diagrama de flujo del algoritmo destinado a determinar si el número 2.731 es un número primo. Este algoritmo, aun estando bien definido,
es poco eficiente, pues, por ejemplo, si el número no es divisible por 2, ya no es necesario probar con ningún número par.

Ejemplo 2: Algoritmo para cambiar una rueda de una auto:

diagrama de flujo para un algoritmo

El diagrama de flujo muestra un algoritmo destinado a solucionar un problema común: el pinchazo de una rueda del coche. Como se puede observar, en él se detallan una serie de pasos elementales que se han de realizar en un orden secuencial. Aunque, por razón de extensión, no están señalados todos los pasos posibles, cada uno de los marcados significa una instrucción en la que no existe ambigüedad.

ALGORITMO DIRECTOS E INTERACTIVOS: Una por una, las operaciones que es capaz de hacer un ordenador digital son, en general, operaciones simples que cualquier persona medianamente instruida puede realizar también.

Las principales características del ordenador son, sin embargo, como ya vimos su exactitud y rapidez, que le permiten llevar a cabo en tiempos cortísimos un número muy elevado de estas operaciones simples.

Tomemos como ejemplo un cálculo simple de los que típicamente puede realizar con más facilidad un ordenador que cualquier persona: sumar los primeros mil números.

Para resolver un problema de este tipo, el ordenador no actúa como nosotros, es decir, no sitúa un número tras otro y realiza su suma total, sino que primeramente suma dos de ellos, a este resultado suma el tercero, al total el cuarto y así sucesivamente hasta agotar los números propuestos.

El algoritmo que habría que preparar para que la máquina llevase a cabo una operación de este tipo sería:

a) Suma al primer número (a,) el segundo (a2).

b) Al resultado obtenido en a) súmale el tercer número (a3).

c) Al resultado obtenido en b) súmale el cuarto número (a4);

d) continuando esta relación hasta que la máquina realizase las mil sumas.

El diagrama de flujo de este tipo de algoritmo, que recibe el nombre de algoritmo directo, sería:

Como se puede observar, un algoritmo de este tipo, bastante frecuente en los ordenadores, presenta una característica muy especial: la iteración; esto es, la repetición continuada de una misma instrucción.

Esta circunstancia obliga a la máquina a almacenar en su memoria un elevado número de instrucciones –aunque sean del mismo tipo– y de datos, por lo que es interesante en casos como este introducir un concepto de algoritmo que, si en principio puede parecer más complicado, resuelve con facilidad este tipo de problemas: los algoritmos iterativos.

Este tipo de algoritmos, además del punto inicial y final, está formado únicamente por un conjunto de instrucciones elementales, un test que indica cuándo ha acabado el proceso, y una nueva variable, llamada contador, que se va incrementando en cada iteración hasta que alcanza un valor que indica cuándo debe acabar el proceso.

Un algoritmo es directo cuando su desarrollo está constituido por una serie finita do pasos elementales consecutivos, por lo cual el esqueleto del diagrama de flujo correspondiente al mismo consiste únicamente en una línea recta. En el esquema se muestra el diagrama de flujo correspondiente al algoritmo directo aplicado para lograr la suma de mil números, compuesto por mil órdenes consecutivas.

Utilizando este tipo de algoritmo, el problema de la suma de mil números vendría representado por el siguiente diagrama de flujo:

diagrama de flujo para un algoritmo

Significa que el proceso comienza con un valor para el contador de k = 2, de tal forma que la primera operación elemental realiza la suma a1 + a2.

Como el valor del contador no es 1.000 como indica el test, el valor de k cambia a k + 1, es decir, 2+1=3. siendo la próxima operación la suma anterior más a3. Este proceso continúa hasta que k alcanza el valor de 1.000, momento en el cual el algoritmo termina.

Es importante señalar que en informática el signo = no tiene el mismo sentido que en matemáticas (donde, evidentemente, la expresión k = k + 1 es falsa), sino un sentido de «sustituir por».

La utilización de algoritmos iterativos reduce considerablemente la extensión del algoritmo, y por tanto de la programación; baste pensar que, utilizando este tipo de algoritmos, la suma de 10.000 números, por ejemplo, se calcula por medio de un algoritmo similar al anterior, solo que cambiando en el test la cifra de 1.000 por 10.000, mientras que en un algoritmo directo sería necesario escribir 10.000 pasos diferentes.

En contra del uso de algoritmos de este tipo se puede aducir que, para Una sola instrucción que la máquina ha de realizar en un algoritmo directo –sumar dos números-, con un algoritmo iterativo ha de hacer cuatro –sumar dos números, sumar un número al contador, realizar una comparación, y una ruptura de la secuencia-, lo que se traduce en un mayor tiempo de cálculo; sin embargo, de forma general, todos los problemas complejos se programan mediante algoritmos iterativos.

Fuente Consultada:
La Revolución Informática – Aula Abierta Salvat – Sebastián Dormido – Mariano Mellado –

Historia de la Computacion Generaciones y sus Caracteristicas

Historia de la Computación
Principales Características de las Generacionesas

TEMAS TRATADOS:

1- Introducción y Antecedentes Históricos

2- Primeras Máquinas Mecánicas de Calcular

3- Evolución del Computador Electrónico

4- Generación de Computadoras

  a) Primera Generación

  b) Segunda Generación

  c) Tercera Generación

  d) El Chip o Microprocesador – Cuarta Generación

5- Medir la Memoria – Almacenamiento de Datos – Tareas de una Computadora

6- Fechas Claves de la Historia de la Computación

7- Primeras Palabras de la Computación

HISTORIA DE LA COMPUTACIÓN: Los primeros seres humanos usaban el método más obvio para contar, sus dedos. Pero estos esfuerzos de cálculo estaban limitados a cantidades bastante pequeñas; además los dedos no eran medios adecuados de registro de datos, particularmente cuando fue necesario un lenguaje de signos.

Dos medios precoces de registro de datos y cálculo llevaban consigo el uso de diagramas y piedras. Los dibujos con carbón de leña de los pueblos primitivos muestran el uso de marcas para registrar cantidades de ganado. Las marcas podían ser añadidas o borradas según estos inventarios eran consumidos o repuestos.

Una aproximación al problema igualmente simple seguía una relación uno-a-uno: una piedra equivalía a una unidad de bienes. Los pastores utilizaban este principio para controlar sus rebaños, asociando una piedra con una oveja. En la terminología de hoy, podríamos decir que los pastores guardaban un inventario de sus ovejas. Aunque los términos puedan cambiar a través del tiempo, el principio sigue siendo el mismo. Los inventarios se realizan con un planteamiento uno-a-uno.

La dificultad de usar piedras era su falta de portabilidad. Un gran rebaño significaba literalmente cientos de piedras y por tanto penalizaba los recursos físicos del pastor. Así, los pastores pasaron a otros métodos de registrar los tamaños de los rebaños. Nudos en cuerdas hechas de cuero de animales proporcionaron una solución, significando cada nudo de 5 a 10 ovejas.

Uno de los primeros dispositivos para facilitar el cálculo fue el abaco. Este dispositivo utilizaba un esquema de numeración basado en los cinco dedos de la mano. Pudo haber sido fácilmente una extensión del uso combinado de las tiras de cuero y las semillas.

Antes de comenzar a eneumerar las distintas maquina creadas por el hombre, vamos a decir que hay una que se ha destacado muy por encima de las demás: el llamado ordenador electrónico o computador.Desde su origen se lo ha comparado como una especie de cerebro humano y hasta ha recibido de «cerebro electrónico». Su función se ha debatido en todos los rincones intelectuales y se ha llegado a polemizar sis estas maquinas piensan realmente o no. Sin  dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina de calcular, por muy sofisticada que ésta sea, solo podemos afirmar que en lo único que se ve superado el cerebro por la máquina es en la velocidad de cálculo, probablemente de ahí venga su mitificaclón.

Antecedentes históricos

Si intentamos encontrar el origen de las máquinas de calcular, y no somos demasiado rigurosos en cuanto a las características exigidas para ser consideradas como tales, podemos retroceder varios miles de años, sin poder precisar cuántos, hasta llegar al más elemental de los utensilios destinados a facilitar el cálculo: el abaco. Aun a pesar de su antigüedad, sigue utilizándose actualmente en algunos países asiáticos, donde tuvo su origen.

El abaco está constituido por una tablilla dividida en varias columnas, la situada más a la derecha corresponde a las unidades, la anterior a las decenas, y así sucesivamente.

abaco

Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

En cada columna podemos distinguir cinco cuentas elementales y dos cuentas que representan cinco unidades colocadas en la parte superior. Una vez representado un número mediante todos sus dígitos en las columnas apropiadas, para proceder a sumarle otro bastará con ir acumulando dígito a dígito, de forma que si al realizar la adición en alguna de las columnas se llega a tener diez cuentas, éstas se eliminarán y se sumará una cuenta en la columna situada a su izquierda. Con un poco de paciencia y algo de práctica se pueden realizar, con este simple utensilio, adiciones y sustracciones de números grandes a velocidades bastante elevadas.

EL ABACO: Nadie sabe cuándo se introdujo el uso del abaco, pero probablemente ya era conocido en Egipto al menos en el 500 a. J.C. Consiste, en lo esencial, en hileras de cuentas, a veces enhebradas. En su forma más simple, cada hilo tiene diez cuentas: la primera hilera representa las unidades, la segunda las decenas, la tercera las centenas y así sucesivamente. Las cuentas pueden manejarse igual que movemos los dedos de una mano para sumar y restar elementalmente. La ventaja radica en que se dispone de nueve o diez «manos» —tantas como hileras de cuentas — , y los movimientos efectuados son más sencillos y rápidos que los requeridos por la cuenta con los dedos. Una persona hábil puede utilizar el abaco a gran velocidad para multiplicar, dividir y realizar muchas operaciones aritméticas complicadas. Se trata del primer dispositivo realmente importante concebido por los seres humanos para contar.

A lo largo de la historia se han inventado otras muchas máquinas que no vamos a considerar como prototipos de los actuales ordenadores por su sencillez, hasta que en el siglo XVII el filósofo y científico francés Blaise Pascal, cuando tan sólo contaba 18 años de edad, inventó su máquina calculadora.

pacalina de pascal

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

La máquina en cuestión estaba construida a partir de un determinado número de medas dentadas (hasta la aparición de los relojes digitales, este tipo de ruedas ha sido el habitual en la industria relojera) de forma que al rodar 10 dientes de la primera rueda, avanzaba un diente de la segunda; al rotar 10 dientes de la segunda, avanzaba un diente de la tercera, y así sucesivamente. Evidentemente, dicha máquina sólo servía para sumar y restar; además, su utilización era tan farragosa que no suponía ninguna ventaja práctica respecto al cálculo manual, más bien todo lo contrario.

La máquina diseñada por Pascal sirvió de base para la que un siglo más tarde construyó el matemático alemán Leib-niz. El objetivo de Leibniz era mucho más ambicioso, ya que para él la máquina no era más que un puente entre el enunciado de un problema y su resolución. De alguna forma daba a su máquina el sentido que en la actualidad damos a los algoritmos.

Blais Pascal

La máquina original de Pascal sólo servía para la adición y la sustracción, la perfeccionada por Leibniz también permitía multiplicar y dividir mediante sumas y restas sucesivas. Para ello utilizaba cilindros con dientes de diferentes longitudes, ajustando por encima de ellos otros engranajes más pequeños, cada uno de los cuales representaba una cifra del multiplicando y estaba situado de forma que cada giro completo del conjunto de engranajes largos registraba una vez el multiplicando, y el multiplicador se expresaba mediante el número de giros de los engranajes largos. Cuando en el siglo XIX se comercializaron las primeras máquinas de calcular, su sistema de funcionamiento estaba basado precisamente en este mecanismo.

historia de la computacion y computadoras

Calculadora diseñada y construida por Mattieu Hahn en 1779. Se estima que es la primera máquina de calcular capaz de realizar las cuatro operaciones aritméticas.

historia de la computacion y computadoras
Máquina de multiplicar diseñada para realizar la operación directamente, sin recurrir a la repetición de adiciones. Fue construida por León Bollée en 1887.

historia de la computacion y computadoras

Máquina tabuladora eléctrica de Hollerith patentada en 1889. Dos veces más veloz que las restantes máquinas contemporáneas, la tabuladora eléctrica es la madre de las modernas máquinas de tratamiento de datos. Se utilizó en 1890 para elaborar el censo de los Estados Unidos de América.

Las máquinas de Babbage
Ya en el siglo XIX, el matemático inglés Babbage dio un gran impulso al diseño de máquinas matemáticas, como él mismo las denominaba. Dedicó toda su vida a dichas máquinas y encontró problemas insalvables a la hora de llevar a la práctica sus proyectos, ya que la complejidad mecánica que conllevaban era excesiva para aquella época. Su obsesión por sus máquinas fue tan grande que se convirtió en una persona huraña y amargada, él mismo llegó a afirmar que no había conocido ni un solo día feliz en su vida.

Entre sus innumerables trabajos podemos citar la elaboración de una tabla de logaritmos que obtuvo gran éxito, así como unas tablas de mortandad con las que pretendió popularizar los seguros de vida. En cualquier caso, su principal objetivo era construir máquinas que calculasen e imprimiesen tablas matemáticas. Ideó un pequeño modelo que consistía en 96 ruedas y 24 ejes, al que denominó «máquina diferencial».

maquina de babage

Pascal y Leibniz construyeron máquinas calculadoras (véase 1642 y 1693), pero sólo permitían efectuar las tareas más sencillas.
Hacia 1822, el matemático inglés Charles Babbage (1792-1871) empezó a pensar en algo mucho más ambicioso. Deseaba una máquina que funcionara con tarjetas perforadas, como un telar de Jacquard (véase 1801), capaz de almacenar respuestas parciales a fin de reservarlas para operaciones adicionales que se efectuarían posteriormente, y capaz asimismo de imprimir el resultado. Todo cuanto imaginó era factible, pero no por medios meramente mecánicos, aplicando las técnicas de la época. Babbage pasó casi el resto de su vida tratando de construir la máquina, mientras sus planes eran cada vez más grandiosos. Babbage había concebido el moderno ordenador, pero carecía de los necesarios conmutadores eléctricos. Se precisaría un siglo para desarrollarlos.

Babbage estimó necesario tres años para construir dicha máquina para el gobierno británico, pero a medida que avanzaba en su construcción, ideaba nuevos sistemas que hacían inútil todo el trabajo realizado anteriormente. Después de cinco años tuvo que abandonar el trabajo por problemas económicos.

Pronto olvidó el viejo proyecto para niciar uno nuevo al que denominó «máquina analítica» y que -según él mismo dijo- era «una máquina que se muerde su propia cola», ya que los resultados que producía podían ser utilizados como catos de entrada para un nuevo cálculo.

La máquina analítica estaba diseñada oara ser capaz de realizar cualquier operación matemática y se puede considerar como la primera máquina programare, aunque el programa era externo a la máquina. Según el diseño, debía disponer de una memoria capaz de almacenar  1.000 números de 50 cifras, podía utilizar funciones auxiliares que constituían su propia biblioteca, podía comparar númeeros y actuar de acuerdo con el resultado de la comparación; en definitiva, su estructura era muy parecida a la de los cimeros ordenadores electrónicos.

Precisamente, su principal limitación era que para su funcionamiento no podía contar con la electrónica, teniendo que conformarse con la mecánica. Toda la información se almacenaba en grandes tarjetas perforadas que contendrían tanto los datos como los programas y el mecanismo de funcionamiento se basaba en alambres, que según pudieran atravesar o no los orificios de las tarjetas, ponían en marcha los engranajes oportunos.

Los fracasos, debidos a la gran complejidad del sistema, fueron continuos y el proyecto quedó abandonado. No osbtante, Babbage estaría hoy orgulloso si pudiera comprobar cómo su lógica ha sido adoptada en los modernos ordenadores electrónicos.

Calculadora electromecánica
El censo norteamericano ganaba en complejidad. Cada vez había más habitantes, y crecía el número de preguntas que se formulaban a cada persona. La información recogida era tan voluminosa, que llevaba literalmente años elaborarla.

El inventor norteamericano Hermán Hollerith (1860-1929), que trabajaba en el censo, pensó que podía mejorarse la manera de manejar los datos, y a partir de 1880 se lanzó a la tarea de encontrarla. Empleó tarjetas perforadas similares a las de Jacquard y Babbage. Cada tarjeta podía ser perforada para representar los datos recogidos en el censo: distribuidas en los lugares apropiados, las perforaciones representaban sexo, edad, ocupación, etcétera.

Hermann Hollerit

Hermán Hollerith (1860-1929)

Con objeto de sumar y analizar toda esta información, las tarjetas se colocaban en un montón, y un dispositivo metálico presionaba sobre ellas. El dispositivo tenía muchas agujas, que eran detenidas por la cartulina, pero cuando encontraban una perforación, pasaban a través de ella y alcanzaban un recipiente de mercurio situado detrás.

Entonces discurría a través de esas agujas una corriente eléctrica que transmitía una señal a un cuadro. Como las tarjetas perforadas pasaban rápidamente por esa máquina, sólo era necesario tomar nota de los números que iban apareciendo en el cuadro.

La diferencia fundamental entre los ingenios de Hollerith y de Babbage era que el primero hacía uso de la electricidad. O sea que desarrolló una calculadora electromecánica, y no meramente mecánica.

Con el tiempo, Hollerith fundó una compañía dedicada a construir toda clase de máquinas capaces de manejar y analizar información. Esa empresa creció hasta convertirse en la International Business Machines Corporation, conocida generalmente como IBM.

tarjeta perforada

Una Antigua Tarjeta Perforada

Evolución hacia el ordenador electrónico

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquin; ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944 John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945 Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

LAS MAQUINAS ELECTROMECÁNICAS DE CONTABILIDAD

Hacia el ordenador actual
El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valló de los grandes adelantos de la electrónica en esos momentos.

En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

 computadora electrónica

Historia de la Computación:
Generaciones de los Ordenadores:

Desde que en la primera parte de la década de los cincuenta se empezaron a utilizar los ordenadores con fines comerciales, éstos han evolucionado hasta el punto de que se pueden distinguir tres generaciones distintas y claramente diferenciadas.

El método que nos permite decidir en qué momento termina una generación y empieza otra se basa fundamentalmente en dos características: la tecnología empleada para la construcción de los ordenadores yía arquitectura de los sistemas. Describiremos a continuación las diferencias existentes entre las tres generaciones, tanto desde el punto de vista de las características físicas de los equipos, como desde la perspéctiva de las dinstintas técnicas de organización y explotación.

HISTORIA: PRIMERA GENERACIÓN DE COMPUTADORAS:

Los ordenadores pertenecientes a la primera generación estaban basados fundamentalmente en válvulas electrónicas, por ese motivo su tamaño era muy grande y su mantenimiento complicado; se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Otra característica de los ordenadores de esta generación era la escasa fiabilidad; por ejemplo, el tiempo medio entre dos averías de una unidad central era inferior a la hora, esto implicaba que para garantizar el buen funcionamiento de un equipo se necesitaba la total dedicación de un grupo de personas encargadas del mantenimiento. Los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de programas largos implicaba esperas incluso de varios días.

La forma de ejecutar los trabajos en los ordenadores de esta generación era estrictamente secuencial: el programa, que previamente se había perforado en tarjetas, se cargaba en la memoria del ordenador y, a continuación, se ejecutaba, procesando las instrucciones de entrada de datos desde cualquiera de los dispositivos de que se disponía, las instrucciones de cálculo y las de salida de información. En cada instante el ordenador no se dedicaba más que a una única tarea, por lo que si se estaba realizando un proceso de lectura de fichas perforadas, el resto de los componentes del sistema permanecían ociosos hasta finalizar la lectura.

UN PASEO HISTÓRICO: Los años 30 vieron la aparición de la investigación que iba a conducir a las primeras computadoras. En 1934, bajo la supervisión del Dr. John V. Atanasoff en el Iowa State College, se modificó una máquina de proceso de tarjetas para realizar cálculos aritméticos bajo controles activados mecánicamente.

Unos cinco años después, el Dr. Atanasoff y Clifford Berry construyeron la computadora Atanasoff-Berry o ABC, que estaba formada por válvulas de vacío y poseía una memoria limitada en la que los datos que iban a ser procesados podían almacenarse.

Investigaciones paralelas sobre sistemas electromecánicos se producían mientras tanto en otros lugares. En Harvard en 1937, el Dr. Howard Aiken y sus ayudantes, en colaboración con IBM, concibieron la idea del Mark I, que fue reconocida posteriormente como la primera computadora. El Mark I pesaba unas 10.000 libras, medía unos 50 pies de largo y contenía unas 760.000 partes móviles. Una estructura similar a un programa que consistía en series de instrucciones se empleó para dirigir al Mark I en sus cálculos.

Mientras que las actividades mencionadas anteriormente recibían la aclamación pública, técnicos investigadores británicos trabajaban en secreto en una computadora llamada Colussus. Sólo recientemente ha salide a la luz lo relativo a este proyecto y su impacto en el esfuerzo bélico británico.

El Colussus se usó para romper los códigos de comunicación nazis y esclarecer las estrategias alemanas. La computadora podía leer datos codificados a una velocidad de 5.000 caracteres por segundo, analizar sus contenidos textuales, y dar salida al material codificado transformado por medio de una máquina de escribir eléctrica.

La computadora Colussus demostró que una gran cantidad de intrincados circuitos electrónicos podía manejar adecuadamente cálculos a gran velocidad.

Los militares teóricos se dieron cuenta rápidamente del potencial que las computadoras podían tener en la guerra moderna y urgieron a que se dieran de programa almacenado, una idea que revolucionó la informática. La mayoría de las computadoras anteriores al EDSAC eran dirigidas por paneles de control cableados para realizar un conjunto específico de tareas.

Un cambio en el tipo de tareas significaba un gran esfuerzo en cablear la computadora para una nueva tarea. El Dr. von Neuman teorizó que una computadora no debería estar controlada exteriormente por un conjunto de cables, sino directamente en su proceso por una serie de instrucciones, contenidas directamente en su memoria.

Un programa almacenado dentro de la computadora dirigiría todo el procesamiento, iniciando la entrada de datos a la computadora, dirigiendo la impresión de los resultados del procesamiento y controlando la actuación de las operaciones aritméticas.

El programa almacenado en la computadora podría controlar un conjunto completo de actividades y, por tanto, dirigir el procesamiento de la computadora de una tarea específica.

El siguiente programa dentro de la memoria de la computadora podría llevar a cabo una tarea diferente sin necesidad de volver a cablear el computador. Esencialmente, la computadora poseería la capacidad de realizar una variedad de operaciones de procesamiento, cualquiera de las cuales podría ser iniciada por el programa almacenado dentro de su memoria. EDSAC proporcionó el vehículo para probar la realidad del concepto de programa almacenado de Von Neumann.

Una de las computadoras accesibles comercialmente fue el UNIVAC I, introducido en 1951. La computadora fue diseñada bajo la supervisión de Mauchly y Eckert para la oficina del censo de los EE. UU. El UNIVAC I introdujo los prototipos de lenguaje de programación y técnicas que fueron desarrolladas para su uso en futuras computadoras.

Fue en esta época cuando IBM entró en la industria informática presentando su primera computadora, el IBM 701, en 1953. Al cabo de un año, IBM introdujo su sistema IBM 650, que demostró ser una de las computadoras más populares de esa época. Podía realizar operaciones con tarjetas de computadora, dando posteriores modelos de esta máquina soporte a dispositivos más sofisticados. Posteriormente, IBM presentó sus computadoras 702 y 704, diseñadas para las áreas de los negocios y la ciencia respectivamente.

Las computadoras discutidas en esta sección, desde el MARK I al IBM 704, son representativos de la primera generación de computadoras. Eran máquinas grandes, extremadamente voluminosas, que eran difíciles de programar y limitadas en su rango de actividades. El componente más usado en la construcción de las computadoras de la primera generación fue el tubo de vacío, que generaba gran cantidad de calor y consumía grandes cantidades de energía eléctrica.

eniac computador

Uno de los primeros usuarios de la computadora ENIAC fueron las fuerzas armadas de EE. UU. Esta computadora, el primer dispositivo completamente eléctrico construido, fue producto del trabajo de Mauchly y Eckert. (UPI.)

HISTORIA: LA SEGUNDA GENERACIÓN DE COMPUTADORAS:

Las diferencias entre la primera y la segunda generación de computadoras fueron su construcción y las capacidades operativas que proporcionaban.

Las computadoras de la segunda generación estaban construidas con transistores, pequeños componentes eléctricos desarrollados en los laboratorios Bell en 1947 y perfeccionados a lo largo de 12 años de trabajo. El transistor era más pequeño y fiable en el tubo de vacío y ofrecía mayor velocidad interna de proceso, medida en microsegundos (millonésimas de segundo).

Una de las tecnologías perfeccionadas con la segunda generación de computadoras fue el almacenamiento en cinta magnética, originalmente introducido con la primera generación de mediados de los 50. Los datos se grababan en cintas magnéticas de la misma manera en que se graba la música en su grabadora casera. Las cintas magnéticas ofrecían a los usuarios la capacidad de almacenar grandes cantidades de datos en un medio que era rápidamente accesible.

Durante el período de los sistemas de la segunda generación, los fabricantes hicieron hincapié en el desarrollo de lenguajes de programación menos técnicos que fueran más fáciles de emplear para los usuarios. Los lenguajes introducidos durante el período de 1958 a 1963 incluyen lenguaje ensamblador, FORTRAN y COBOL; el FORTRAN fue aplicado a los problemas científicos y el COBOL fue diseñado para uso en negocios.

El concepto de separar las actividades científicas y de negocios, fue aplicado también a las computadoras de la segunda generación. Dos de los mayores sistemas de esta categoría fueron las series IBM 1401 e IBM 1600. Las series 1401 estaban diseñadas para realizar operaciones de proceso de datos que involucraban datos numéricos y alfabéticos. Las series 1600 tenían asignadas aplicaciones científicas en las que se empleaban principalmente datos numéricos. Cada tipo de computadora era diseñada para uso restringido de un área específica.

Es conveniente en este momento presentar y definir los siguientes términos relacionados con el manejo de datos sobre computadoras. Hardware es el soporte físico que permite el procesamiento de los datos. Software consiste en programas de computadora que dirigen al hardware en la realización de sus tareas informáticas. Para que una computadora lleve a cabo cualquier tarea, se la debe suministrar una serie de instrucciones en forma de programa. Software es el término general aplicado a los diversos programas que pueden ser usados para el tratamiento informático de los datos.

HISTORIA: TERCERA GENERACIÓN DE COMPUTADORAS:

Como las dos generaciones anteriores, la tercera generación de computadoras estuvo marcada por un gran cambio en la tecnología. La construcción de la tercera generación de computadoras se basó en los circuitos miniaturizados, un producto lateral del esfuerzo espacial americano. Estos circuitos avanzados reemplazaron el cableado convencional asociado con los primeros sistemas de computadoras y ofrecieron mayores velocidades internas. Las computadoras de la tercera generación fueron capaces de alcanzar velocidades operacionales de nanosegundos (mil-millonésima de segundo), procesando muchos millones de instrucciones en un solo segundo.

Fue con la aparición de los sistemas de la tercera generación, cuando las computadoras comenzaron su aparición en todos los aspectos de la sociedad americana. Cuando las computadoras habían sido poco usadas, ahora se hacían importantes herramientas de organizaciones que manejaban todo tipo de datos. El sistema computador de la compañía llegó a ser una de las primeras cosas consideradas cuando se querían promover los negocios, implicando la puesta al día de la organización y su capacidad de servir cada necesidad del cliente.

Uno de los mayores sistemas de computadoras que aparecieron durante este período, fue el sistema IBM 360. Fue la amplia aceptación del sistema 360 y su uso con éxito en todas las áreas de la ciencia y los negocios, lo que hizo de él un hito en la tercera generación de computadoras. El sistema 360 representaba tal cambio respecto del hardware de la segunda generación, que fue clasificado como una computadora de propósito general. Fue diseñado para llevar a cabo actividades de procesamiento científicas y de negocios. Su diseño permitía a los usuarios la flexibilidad de realizar el amplio rango de actividades que deben emprender las modernas corporaciones.

Una importante unidad hardware, que complementó a la tercera generación de computadoras, fue el disco magnético. El disco magnético supuso un cambio significativo respecto a todos los dispositivos de almacenamiento anteriores, ya que permitía el acceso aleatorio a los datos contenidos en los archivos de las computadoras. Previamente, los datos sólo podían ser almacenados secuencialmente, y a un registro individual sólo podía accederse después de que todos los registros anteriores hubieran sido explorados.

Usando técnicas de almacenamiento en disco, los programadores pudieron acceder a elementos específicos de los datos directamente, sin involucrar otros registros de este archivo. Por tanto los archivos de las computadoras podían componerse en series de registros, con cualquier registro accesible e independientemente vía disco magnético.

El potencial de tratamiento de datos ofrecido por los discos magnéticos fue inmediatamente reconocido en el área de los negocios. Las empresas que previamente estaban limitadas por la incapacidad de acceder a los datos directamente, ahora podían servir inmediatamente a sus clientes; el deseo de los ejecutivos de información más rápida podía ser satisfecho ahora de una manera realista.

La nueva capacidad se aplicó a los sistemas de reserva de billetes aéreos.

Los sistemas anteriores necesitaban días para confirmar las reservas de los clientes, siendo gran cantidad del manejo de datos externa a la computadora. Con el soporte del disco, fue posible responder a las peticiones de reserva de los clientes mientras éstos esperaban al teléfono.

Se consiguieron también grandes avances en la transmisión de datos entre sistemas de computadoras y usuarios localizados a muchos kilómetros de distancia. Los datos de las computadoras se podían transmitir por líneas telefónicas y por microondas a centros de computadoras, proporcionando así un soporte de procesamiento de alta velocidad a las organizaciones extensamente distribuidas. El término telecomunicaciones, se introdujo para describir las actividades relacionadas con la transmisión de datos informáticos a través de líneas de comunicación.

IBM 360 generacion de computadoras

El sistema IBM 360 fue una importante computadora de la tercera generación.

Los fabricantes de computadoras se dieron cuenta rápidamente de que los usuarios requerían lenguajes de programación más adecuados a sus necesidades, con características eficaces no encontradas en los lenguajes de la segunda generación.

Los lenguajes de programación tenían que ser aprendidos más rápidamente, entendidos y ayudados por documentación adecuada para describir su uso. Asimismo los fabricantes se dieron cuenta de que si los lenguajes de programación eran más fáciles de usar y aprender, habría más gente atraída por la computadora y potencialmente podrían adoptar su uso. Las raíces de la revolución actual del uso de la computadora en la casa y en los negocios están en estas realizaciones.

Dos lenguajes que ganaron gran preeminencia con el hardware^de la tercera generación, fueron FORTRAN y COBOL. FORTRAN fue el lenguaje preferido de la comunidad científica, ya que su formato algebraico era adecuado para expresar fórmulas y secuencias para resolver problemas. COBOL se desarrolló para las necesidades específicas de la comunidad de los negocios, permitiendo directamente la manipulación de datos almacenados en archivos de computadora y la preparación de informes impresos.

Su formato, similar al inglés, contrastaba fuertemente con el formato algebraico del FORTRAN, y permitía a la gente del mundo de los negocios, no familiarizada con conceptos matemáticos, a entender el software relacionado con sus actividades. Este fue un factor importante en la amplia aceptación que tuvo en el citado círculo de profesionales.

discos magneticos

La aparición de los discos magnéticos significó el auge de las computadoras en los negocios y las hizo una importante herramienta de procesamiento de datos.

La oleada de actividades relacionadas con las computadoras que surgieron como consecuencia de la tercera generación, se centró en las necesidades de software del usuario individual. Mucha gente estaba interesada en generar su propio software pero no tenían ni el deseo ni la inclinación a trabajar con los lenguajes entonces existentes. Además, los usuarios querían interactuar directamente con la computadora mientras desarrollaban su software.

Fueron estos requerimientos los que llevaron al desarrollo del lenguaje de programación BASIC.

El BASIC está considerado como un lenguaje interactivo, ya que los usuarios pueden interactuar directamente con la computadora instrucción a instrucción a través de la terminal. Un usuario sentado ante el teclado del terminal introduce las instrucciones requeridas y observa inmediatamente su efecto según se procesan estas instrucciones.

Dos términos asociados con el uso de un lenguaje interactivo son en línea (on-line) y teleproceso. Los dispositivos terminales en línea transfieren directamente datos entre el usuario y la computadora. El teleproceso implica actividades de telecomunicación y proceso de datos, donde intervienen pantallas similares a las de televisión. Estas pantallas como las de televisión se llaman tubos de rayos catódicos (CRT).

HISTORIA: CUARTA GENERACIÓN DE COMPUTADORAS

A finales de la década de los setenta se produjo una nueva convulsión en el mundo de la informática: el nacimiento y posterior utlización masiva del microprocesador. También se perfeccionaron notablemente las unidades auxiliares de almacenamiento y comunicación.

Esta es la generación vigente en la actualidad, en la que la microelectrónica ha volcado toda su innovación en el hardware de los ordenadores aportando circuitos integrados de media, alta y muy alta escala de integración, caracterizados por una elevadísima fiabilidad y alta velocidad de operación. Lo que menos ha variado, al menos tan sustancialmente como lo hizo en anteriores saltos generacionales, son los procedimientos de explotación de la máquina.

El protagonista indiscutible de esta cuarta generación es el ordenador personal, cuyas prestaciones son equiparables a las de los miniordenadores e incluso grandes equipos operativos de hace muy pocos años. El ordenador personal es el responsable de que la informática haya logrado la enorme popularidad de que goza en nuestros días.

La presencia del ordenador en la mesa de trabajo de muchos profesionales, e incluso en millones de hogares, es un hecho que ha pasado de inimaginable a plena realidad cotidiana.

EL CHIP DE SILICCIO:

La aparición del chip de silicio señaló el siguiente gran paso en la construcción de la computadora. Sin embargo, una falta de consenso entre parte de los expertos en computadoras ha dejado sin aclarar la cuestión de si el chip constituye la cuarta generación de equipos de computadoras. Aparte de esta controversia, el chip ha estado detrás de los perfeccionamientos y ha sido el componente más importante de la construcción de las actuales computadoras.

Una consecuencia del chip fue una mayor reducción del tamaño del hardware. Los chips actuales empaquetan literalmente miles de circuitos; un chip puede contener instrucciones de programa o retener miles de datos. Las computadoras que una vez ocuparon una habitación entera pueden construirse ahora en el espacio de un escritorio de oficina.

El sistema IBM 370 es uno de los sistemas que usa la tecnología de los chips. La figura 1.7 ilustra el sistema 370 y uno de los chips en su construcción. El sistema 370 en sus diferentes nodelos es capaz de proporcionar soporte informático a grandes y pequeñas organizaciones. Grandes cantidades de almacenamiento en disco, así como funciones de telecomunicación, son características del sistema IBM 370.

Otro tipo de computadora que tuvo importancia en los años 70, fue la minicomputadora. Las minicomputadoras son más pequeñas que los sistemas de computadoras convencionales pero ofrecen capacidades de procesamiento similares a un precio competitivo. Las minicomputadoras fueron introducidas inicialmente en 1965 por Digital Equipment Corporation pero alcanzaron amplia aceptación cuando los procesadores de datos descubrieron su limitado pero efectivo potencial de procesamiento. Ofrecen las mismas características operativas en los grandes sistemas pero en un grado menor.

La figura de abajo muestra las primitivas capacidades de proceso de discos y cintas magnéticas de las mini-computadoras. La microcomputadora (o computadora casera) es otro resultado de la tecnología del chip. Los aspectos de proceso fundamentales de una computadora se reproducen en la intrincada circuitería del chip. La microcomputadora puede usarse tanto para negocios como para actividades de recreo en casa. El principal lenguaje de programación usado en microcomputadoras es el BASIC.

https://historiaybiografias.com/archivos_varios5/discos_magneticos1.jpg

Las antiguas minicomputadoras poseían las mismas características operativas que los grandes sistemas. Tanto las cintas como los discos magnéticos pueden ser usados en los sistemas minicomputadores para almacenar grandes cantidades de datos.

Las microcomputadoras ofrecen también capacidad de tener almacenamiento en cintas y discos. Pequeñas cintas de cásete ofrecen almacenamiento secuencial de datos en cinta magnética. Discos pequeños y flexibles, llamados floppy disks o disquetes, proporcionan las operaciones de almacenamiento en disco en las microcomputadoras. Estos pequeños sistemas poseen también CRT con pantallas de color y muchos tipos de dispositivos impresores. Muchos tipos de software para negocios y entretenimientos son accesibles comercialmente para computadoras.

Tecnología moderna de las computadoras de los años 90:

Continuando el patrón marcado por las generaciones anteriores, las computadoras de la década del 90 se han hecho más rápidas, pequeñas y fiables. Los dispositivos que apoyan a las computadoras actuales se han hecho igualmente sofisticadas y complejas. Las tecnologías desarrolladas en otros campos se han aplicado a producir nuevos dispositivos para completar las capacidades de computación existentes. Los dispositivos resultantes han acelerado el flujo de los datos de la computadora y añadido nuevas dimensiones al proceso de la información.

Muchos dispositivos computadores han incorporado láseres de baja potencia como parte de sus operaciones. Las impresoras que usan el láser han alcanzado velocidades de hasta 21.000 líneas impresas por minuto. Otro tipo de impresora de alta velocidad capaz de preparar múltiples informes en minutos utiliza la fibra óptica para transmitir y registrar datos. Con la fibra óptica los datos se transmiten en forma de impulsos de luz a través de hilos hechos de silicio, aumentando así la velocidad de operación del dispositivo.

La industria de las computadoras ha incorporado satélites a sus servicios de comunicación de datos. Muchas redes de computadoras usan satélites para transmitir rápidamente datos entre continentes y oficinas centrales ampliamente dispersas. En algunas transmisiones por satélite se usan láseres de baja potencia para transmitir y guardar datos temporalmente.

Aparecieron los primeros servicios para transmisión digital a alta velocidad, reservados sólo para datos de computadora, funcionando con centros de satélite. Las comunicaciones por satélite representan algunas de las actividades de telecomunicación más importantes de las hoy utilizadas.

LOS PRIMEROS ALMACENAMIENTOS MASIVOS DE DATOS:

La llegada del chip no ha significado el fin de la investigación en el área del almacenamiento de datos. En 1979 Motorola Corporation presentó un chip que contenía el equivalente a 68.000 transistores. Al cabo de dos años un chip de aproximadamente 1/2 pulgada cuadrada y capaz de almacenar 72.000 datos fue presentado por IBM. La investigación está actualmente detrás de desarrollar un chip microminiaturizado que poseería una capacidad de almacenamiento multimillonario y funcionaría en milmillonésimas de segundo.

Aunque la investigación sobre microchips está en su etapa de desarrollo, otras técnicas de almacenamiento están empezando a demostrar que pueden tener su aplicación práctica. Las memorias de burbujas magnéticas y el dispositivo de efecto Josephson están empezando a ser prcrnetedores. El concepto de memoria de burbujas magnéticas se relaciona con el movimiento de burbujas electrónicas a través de una superficie magnética especial. El movimiento de las burbujas crea unos impulsos que son traducidos por la computadora a un formato de datos codificados.

El dispositivo de efecto Josephson está usándose actualmente en prototipos de computadoras para perfeccionar su funcionamiento. Este dispositivo de conmutación es muy prometedor por su capacidad de mover los datos dentro de la computadora a velocidades extremadamente altas. El dispositivo de Josephson ha llegado a alcanzar velocidades del rango del picosegundo (billonésima de segundo). Estas altísimas velocidades, aunque actualmente

Cómo se mide la memoria de un ordenador

La forma de medir la memoria o capacidad de almacenamiento de información es idéntica para todas las unidades de un ordenador. Basta con expresar el número de BITS que se pueden almacenar para dar una medida exacta de la capacidad de memoria, tanto en el caso de la memoria principal como en el de la memoria auxiliar (cintas magnéticas, discos…). En cualquier caso, debido a la lógica con la que se almacenan los datos y a los órdenes de magnitud que sería preciso manejar, el bit no resulta una unidad apropiada. Por ello, se adoptan como unidades de medida determinados múltiplos del bit o unidad elemental de información binaria.

Estas unidades son:
Palabra
Se denomina palabra a toda cadena de bits utilizada para representar un único ente de información (carácter alfabético, cifra numérica…).

Byte (octeto)
Palabra constituida por un conjunto de oche dígitos binarios o bits. En algunos casos el octeto puede considerarse como una subdivisión del formato de palabra con el que opera determinado ordenador; así, puede hablarse de palabras de 2 y 4 octetos, según estén formadas por 16 ó 32 bits.

Kilo-byte (KB)
Un Kbyte equivale a 1.024 octetos o bytes (esto es: 8.192 bits). El hecho de corresponder a 1.024 y no a 1.000 se debe a que un Kbyte es igual a 210 (la base del sistema binario elevada s exponente 10). Esta unidad es la más comúnmente utilizada para medir la capacidac de almacenamiento de la memoria de un ordenador.

Megabyte (MB)
Para la representación de grandes volúmenes de memoria, como la que corresponde a un disco magnético rígido, el Kbyte resulta una unidad muy reducida. De ahí que se haya hecho necesario definir otra unidad de rango superior, el «Mbyte», que equivale a un millón de octetos o bytes.

LAS TAREAS QUE PUEDE REALIZAR UN COMPUTADOR

Procesamiento de información Preparación de nóminas y facturas

Mantenimiento de la información de inventarios

Mantenimiento de las cuentas de clientes

Procesamiento técnico de la información de referencia por medios de comunicación y bibliotecas públicas

Cálculo del impuesto a la renta.

Mantenimiento de los registros estudiantiles en las universidades

Mantenimiento de la información de vuelos y reservaciones en las aerolíneas.

Catalogación de los suministros de sangre en bancos regionales de sangre

Mantenimiento de cuentas corrientes en los bancos

Edición y reproducción de manuscritos mecanografiados

Mantenimiento de los registros criminales por los servicios de investigación

Mantenimiento de los registros de impuestos a la propiedad en una municipalidad Presupuesto de organizaciones e individuos

Registro de la distribución monetaria por las agencias gubernamentales de bienestar social

Modelos matemáticos

Análisis estadísticos de los datos de censos, datos biológicos, datos de ingeniería, etc.

Planeamiento de la producción y control de inventarios

Diagnóstico médico

Análisis orbital para satélites

Administración de la cartera financiera

Localización de estaciones de bomberos en una área urbana

Simulación de la decadencia económica en una ciudad

Planeamiento de dietas alimentarias en instituciones

Pronóstico estadístico

Planeamiento educativo y planeamiento de la ruta de buses escolares Diseño de sistemas de tráfico en autopistas y aeropuertos

Análisis químico

Diseño de sistemas de energía solar

Planeamiento, programación y control de proyectos complejos (tales como la construcción de un submarino, un edificio para oficinas o un estadio)

FECHAS HISTÓRICAS CLAVES DE LA HISTORIA DE LA COMPUTACIÓN:

Fecha desconocida  Abaco

1642 Machine arithmétique de Pascal

1671 Calculadora de Leibniz

1720 Tiras de papel perforadas de Bouchon para tejer

1801 Telar automático de Jacquard

1812 Máquina de diferencias de Babbage

1820 Calculadora de Thomas, disponible comercialmente

1833 Máquina analítica de Babbage

1830 Análisis de Lady Lovelace de las ideas de Babbage

1884 Máquina sumadora de Burroughs con capacidad de imprimir

1885 Calculadora de Felt capaz de realizar cálculos con varios dígitos

años 1880 y 1890 Trabajo de Hollerith en el censo de EE. UU.

años 1880 y 1890 Utilización de las tarjetas perforadas de Hollerith y de equipo de cálculo para analizar los datos del censo

1907-1910 Nuevo sistema de procesamiento con tarjetas de Power para el censo de EE. UU.

años 1930 a 1956 Primera generación de computadoras

1934 Trabajo de Atanasoff en Iowa

1937 Computadora Mark I de Aiken. Harvard

1939 Computadora Atanasoff-Berry (ABC)

1941 Colussus. británico

1946 Mauchly y Eckert inventan el ENIAC en la Universidad De Pennsylvania

1949 Concepto de programa almacenado de Von Neumann e invención del EDSAC

1951 Mauchly y Eckert inventan el EDVAC en la Universidad de Pennsylvania

1951 UNIVAC I

1953 IBM 701

1954 IBM 650 mediados 1950 IBMf702 y 704 mediados 1950 Cinta magnética

1957 a 1963 Segunda generación de computadoras

últimos 1950 a primeros Series IBM 1401 y 1600 1960

1964 a primeros 1970 Tercera generación de computadoras mediados 1960 a primeros IBM System/360

1970 mediados 1960 Disco magnético

1965 Mínicomputadoras primeros

1970 Chip de silicio primeros 1970 IBM System/370 últimos

1970 Fibras ópticas últimos

1970 Microcomputadoras

1979 Chip microprocesador últimos 1970 Memoria burbujas magnéticas

1980 Dispositivo de conmutación de efecto Josephson años 1980 Computadoras de conexión compatible
años

1990 Primeras Experiencias de Inteligencia artificial

2000 Internet

GLOSARIO PRIMITIVO DE COMPUTACIÓN:

Almacenamiento en cinta magnética. Una técnica de almacenamiento en la que los datos son accedidos secuencialmente desde los ficheros grabados en la superficie de la cinta magnética.

BASIC. Un lenguaje de programación que permite al usuario interactuar directamente con la computadora.

COBOL. Lenguaje de programación asociado fundamentalmente con las aplicaciones comerciales.

Compatibilidad de conexión. La propiedad de la mayoría de computadoras modernas que permite que los dispositivos funcionen juntos adecuadamente por medio de una simple interconexión.

Computadora de propósito general. Una computadora capaz de tratar problemas científicos y comerciales.

Concepto de programa almacenado. El concepto debido a Von Neumann que propone que el programa y sus datos estén en la computadora, controlando su operación.

CRT. Letras iniciales de cathode ray tube (tubo de rayos catódieos), usadas para describir un terminal que muestra datos de forma similar a los televisores.

Chip de silicio. El componente de la computadora usado para construir computadoras posteriores a la tercera generación. En él hay miles de circuitos para guardar datos o instrucciones del programa.

Disco magnético. Técnica de almacenamiento en la que los registros individuales de datos pertenecientes a ficheros son accedidos directamente de forma aleatoria.

Disquete. Pequeño disco flexible utilizado como memoria en sistemas de microcomputadora.

En línea. La capacidad de un usua-i o de tener acceso directo al • >mputador para realizar el procesamiento de datos.

Fibras ópticas. Una tecnología en la que se transfieren los datos en forma de impulsos de luz por líneas de comunicación hechas de silicio.

Floppy disk. Sinónimo de disquete.

FORTRAN. Un lenguaje de programación desarrollado en los años 1950 que utiliza formato algebraico y está bien adaptado a las aplicaciones científicas.

Hardware. El término aplicado generalmente a todos los dispositivos en los que se realizan procesamientos informáticos de datos.

Inteligencia artificial (AI). Una técnica de investigación que pretende dar a las computadoras los recursos para tomar decisiones en respuesta a cambios en las condiciones operativas.

Lenguaje interactivo. Un lenguaje de programación que permite a los usuarios comunicarse con la computadora en el procesamiento de datos.

Microcomputadora. El sistema informático más pequeño, construido con chips de silicio y aplicado en el hogar y los negocios.

Minicomputadoras. Computadoras orientadas a tareas, introducidas por primera vez en 1965. y que ofrecen un potencial de procesamiento similar al de los sistemas grandes poro a un precio competitivo.

Primera generación de computadoras. Las primeras series de computadoras eran grandes, voluminosas, difíciles de programar y estaban construidas con tubos de vacío.

Programa. La serie de instrucciones escrita en el lenguaje del computador y que le dirige en sus tareas de procesamiento.

Segunda generación de computadoras. La segunda era impártante de la informática, en fe que las computadoras se cpnstrüían con transistores.

Software. El término aplicado’a los programas que dirigen y:x;ontro-lan el procesamiento de la computadora.

Telecomunicaciones. El uso de alguna forma de línea de comunicación que conecte a los usuarios con la computadora y permita el tratamiento en lineare los datos.

Conceptos de Redes Bases de Datos Lenguajes de Programación

Redes, Bases de Datos, Lenguajes de Programación

Bases de Datos

La DBMS (Data Base Management System) es la herramienta que las computadoras utilizan para realizar el procesamiento y almacenamiento ordenado de los datos. Una base de datos es un recipiente para colecciones relacionadas de datos.

Cualquier conjunto de datos organizados para su almacenamiento en la memoria de un ordenador o computadora, diseñado para facilitar su mantenimiento y acceso de una forma estándar. Los datos suelen aparecer en forma de texto, números o gráficos.

bases de datos

Desde su aparición en la década de 1950, se han hecho imprescindibles para las sociedades industriales. Hay cuatro modelos principales de bases de datos: el modelo jerárquico, el modelo en red, el modelo relacional (el más extendido hoy en día; los datos se almacenan en tablas a los que se accede mediante consultas escritas en SQL) y el modelo de bases de datos deductivas. Otra línea de investigación en este campo son las bases de datos orientadas a objeto, o de objetos persistentes.

Por ejemplo, un a agenda puede ser una base de datos donde se almacenan los nombres, direcciones y números telefónicos de amigos y contactos de negocios. La Base de Datos de una Compañía puede contener información acerca de los consumidores, vendedores, empleados, venta s en inventario.

Ejemplos de Bases de Datos: Access, FoxPro, Approach.

  1. Base de datos relacional, en informática, tipo de base de datos o sistema de administración de bases de datos, que almacena información en tablas (filas y columnas de datos) y realiza búsquedas utilizando los datos de columnas especificadas de una tabla para encontrar datos adicionales en otra tabla.En una base de datos relacional, las filas representan registros (conjuntos de datos acerca de elementos separados) y las columnas representan campos (atributos particulares de un registro). Al realizar las búsquedas, una base de datos relacional hace coincidir la información de un campo de una tabla con información en el campo correspondiente de otra tabla y con ello produce una tercera tabla que combina los datos solicitados de ambas tablas.

    Por ejemplo, si una tabla contiene los campos NÚM-EMPLEADO, APELLIDO, NOMBRE y ANTIGÜEDAD y otra tabla contiene los campos DEPARTAMENTO, NÚM-EMPLEADO y SALARIO, una base de datos relacional hace coincidir el campo NÚM-EMPLEADO de las dos tablas para encontrar información, como por ejemplo los nombres de los empleados que ganan un cierto salario o los departamentos de todos los empleados contratados a partir de un día determinado.

    En otras palabras, una base de datos relacional utiliza los valores coincidentes de dos tablas para relacionar información de ambas. Por lo general, los productos de bases de datos para microcomputadoras o microordenadores son bases de datos relacionales.

  2. Cliente/servidor: En vez de construir sistemas informáticos como elementos monolíticos, existe el acuerdo general de construirlos como sistemas cliente/servidor. El cliente (un usuario de PC) solicita un servicio (como imprimir) que un servidor le proporciona (un procesador conectado a la LAN).Este enfoque común de la estructura de los sistemas informáticos se traduce en una separación de las funciones que anteriormente forman un todo. Los detalles de la realización van desde los planteamientos sencillos hasta la posibilidad real de manejar todos los ordenadores de modo uniforme.

Redes

Una Red es una manera de conectar varias computadoras entre sí, compartiendo sus recursos e información y estando conscientes una de otra. Cuando las PC´s comenzaron a entrar en el área de los negocios, el conectar dos PC´s no traía ventajas, pero esto desapareció cuando se empezó a crear los sistemas operativos y el Software multiusuario.

  1. Topología de redes: La topología de una red , es el patrón de interconexión entre nodos y servidor, existe tanto la topología lógica (la forma en que es regulado el flujo de los datos) ,como la topología física ( la distribución física del cableado de la red).

Las topologías físicas de red más comunes son:

  • Estrella.
  • Bus lineal
  • Anillo.

A.1) Topología de estrella: Red de comunicaciones en que la que todas las terminales están conectadas a un núcleo central, si una de las computadoras no funciona, ésto no afecta a las demás, siempre y cuando el «servidor» no esté caído.

A.2) Topología Bus lineal: Todas las computadoras están conectadas a un cable central, llamado el «bus» o «backbone». Las redes de bus lineal son de las más fáciles de instalar y son relativamente baratas.

A.3) Topología de anillo: Todas las computadoras o nodos están conectados el uno con el otro, formando una cadena o círculo cerrado.

  1. Protocolos de intercambio, en informática, como en las relaciones humanas, señal mediante la cual se reconoce que puede tener lugar la comunicación o la transferencia de información. Los protocolos de intercambio se pueden controlar tanto con hardware como con software.Un protocolo de intercambio de hardware, como el existente entre un ordenador o computadora con una impresora o con un módem, es un intercambio de señales, a través de cables específicos, en el que cada dispositivo señala su disposición para enviar o recibir datos.

    Un protocolo de software, normalmente el que se intercambia durante las comunicaciones del tipo módem a módem, consiste en una determinada información transmitida entre los dispositivos de envío y de recepción. Un protocolo de intercambio de software establece un acuerdo entre los dispositivos sobre los protocolos que ambos utilizarán al comunicarse.

    Un protocolo de intercambio de hardware es por tanto similar a dos personas que físicamente estrechan sus manos, mientras que un protocolo de intercambio de software es más parecido a dos grupos que deciden conversar en un lenguaje particular.

  2. TCP/IP: (Transmission Control Protocol/Internet Protocol) Protocolo de control de transmisiones/protocolo Internet. Conjunto de protocolos de comunicaciones desarrollado por la Defense Advanced Research Projects Agency (DARPA – Agencia de proyectos de investigación avanzada de defensa) para intercomunicar sistemas diferentes.Se ejecuta en un gran número de computadoras VAX y basadas en UNIX, y es utilizado por muchos fabricantes de hardware, desde los de computadoras personales hasta los de macrocomputadoras. Es empleado por numerosas corporaciones y por casi todas las universidades y organizaciones federales de los Estados Unidos.

    El File Transfer Protocol (FTP – Protocolo detransferencia de archivos) y el Simple Mail Transfer Protocol (SMTP -Protocolo simple de transferencia de correspondencia) brindan capacidades de transferencia de archivos y de correo electrónico.

    El protocolo TELNET proporciona una capacidad de emulación de terminal que permite al usuario interactuar con cualquier otro tipo de computadora de la red. El protocolo TCP controla la transferencia de los datos, y el IP brinda el mecanismo para encaminarla.

En el siguiente diagrama se muestran TCP/IP, junto con los modelos DOD y OSI.

  1. IPX: (Internet Packet EXchange) intercambio de paquetes entre redes Un protocolo de comunicaciones del NetWare de Novell que se utiliza para encaminar mensajes de un nodo a otro.Los programas de aplicación que manipulan sus propias comunicaciones cliente/servidor o de igual a igual en una red Novell pueden acceder directamente al IPX o al protocolo SPX de NetWare. El IPX no garantiza la entrega del mensaje como lo hace el SPX.
  2. NETBEUI: NetBEUI (NETBIOS Extended User Interface) Interfaz de usuario extendido de NetBIOS La realización del protocolo de transporte NetBIOS en LAN Manager y LAN Server. Se comunica con las tarjetas de interfaz de red (NICs) vía NDIS (Network Driver Interface Specification).El término fue originalmente usado para definir el protocolo NetBIOS después que éste fue mejorado para soportar la Token Ring Network.
  3. Tipos de Redes: Según el lugar y el espacio que ocupen, las redes, se pueden clasificar en dos tipos:

1.Redes LAN (Local Area Network) o Redes de área local

2.Redes WAN (Wide Area Network) o Redes de área amplia

1.- LAN – Redes de Área Local:

Es una red que se expande en un área relativamente pequeña. Éstas se encuentran comúnmente dentro de una edificación o un conjunto de edificaciones que estén contiguos. Así mismo, una LAN puede estar conectada con otras LANs a cualquier distancia por medio de línea telefónica y ondas de radio.

Pueden ser desde 2 computadoras, hasta cientos de ellas. Todas se conectan entre sí por varios medios y topología, a la computadora(s) que se encarga de llevar el control de la red es llamada «servidor» y a las computadoras que dependen del servidor, se les llama «nodos» o «estaciones de trabajo».

Los nodos de una red pueden ser PC´s que cuentan con su propio CPU, disco duro y software y tienen la capacidad de conectarse a la red en un momento dado; o pueden ser PC´s sin CPU o disco duro y son llamadas «terminales tontas», las cuales tienen que estar conectadas a la red para su funcionamiento.

Las LANs son capaces de transmitir datos a velocidades muy rápidas, algunas inclusive más rápido que por línea telefónica; pero las distancias son limitadas.

  1. – WAN – Redes de Área Amplia:

Es una red comúnmente compuesta por varias LANs interconectadas y se encuentran en una amplia área geográfica. Estas LANs que componen la WAN se encuentran interconectadas por medio de líneas de teléfono, fibra óptica o por enlaces aéreos como satélites.

Entre las WANs mas grandes se encuentran: la ARPANET, que fue creada por la Secretaría de Defensa de los Estados Unidos y se convirtió en lo que es actualmente la WAN mundial: INTERNET, a la cual se conectan actualmente miles de redes universitarias, de gobierno, corporativas y de investigación.

G.) Componentes de una red:

De lo que se compone una red en forma básica es lo siguiente:

1.-Servidor (server):

El servidor es la máquina principal de la red, la que se encarga de administrar los recursos de la red y el flujo de la información. Muchos de los servidores son «dedicados» , es decir, están realizando tareas específicas.

Por ejemplo , un servidor de impresión solo para imprimir; un servidor de comunicaciones, sólo para controlar el flujo de los datos…etc. Para que una máquina sea un servidor, es necesario que sea una computadora de alto rendimiento en cuanto a velocidad y procesamiento, y gran capacidad en disco duro u otros medios de almacenamiento.

2.- Estación de trabajo (Workstation):

Es una computadora que se encuentra conectada físicamente al servidor por medio de algún tipo de cable. Muchas de las veces esta computadora ejecuta su propio sistema operativo y ya dentro, se añade al ambiente de la red.

  1. – Sistema Operativo de Red:

Es el sistema (Software) que se encarga de administrar y controlar en forma general la red. Para ésto tiene que ser un Sistema Operativo Multiusuario, como por ejemplo: Unix, Netware de Novell, Windows NT, etc.

  1. – Recursos a compartir:

Al hablar de los recursos a compartir, estamos hablando de todos aquellos dispositivos de Hardware que tienen un alto costo y que son de alta tecnología. En éstos casos los más comunes son las impresoras, en sus diferentes tipos: Láser, de color, plotters, etc.

  1. – Hardware de Red

Son aquellos dispositivos que se utilizan para interconectar a los componentes de la red, serían básicamente las tarjetas de red (NIC-> Network Interface Cards) y el cableado entre servidores y estaciones de trabajo, así como los cables para conectar los periféricos.

  1. Routers y bridges: Los servicios en la mayoría de las LAN son muy potentes. La mayoría de las organizaciones no desean encontrarse con núcleos aislados de utilidades informáticas. Por lo general prefieren difundir dichos servicios por una zona más amplia, de manera que los grupos puedan trabajar independientemente de su ubicación.Los routers y los bridges son equipos especiales que permiten conectar dos o más LAN. El bridge es el equipo más elemental y sólo permite conectar varias LAN de un mismo tipo. El router es un elemento más inteligente y posibilita la interconexión de diferentes tipos de redes de ordenadores.

    Las grandes empresas disponen de redes corporativas de datos basadas en una serie de redes LAN y routers. Desde el punto de vista del usuario, este enfoque proporciona una red físicamente heterogénea con aspecto de un recurso homogéneo.

  2. Brouters: Un disco dispositivo de comunicaciones que realiza funciones de puente (bridge) y de encaminador (router). Como puente, las funciones del «brouter» son al nivel de enlace de datos (estrato 2), independientemente de protocolos más altos, pero como encaminador, administra líneas múltiples y encamina los mensajes como corresponde.
  3. Gateway: pasarela, puerta de acceso Una computadora que conecta dos tipos diferentes de redes de comunicaciones. Realiza la conversión de protocolos de una red a otra. Por ejemplo, una puerta de acceso podría conectar una red LAN de computadoras. Nótese la diferencia con bridge, el cual conecta redes similares.

H.) Transmisión de datos en las redes:

La transmisión de datos en las redes, puede ser por dos medios:

  1. – Terrestres: Son limitados y transmiten la señal por un conductor físico.
  2. – Aéreos: Son «ilimitados» en cierta forma y transmiten y reciben las señales electromagnéticas por microondas o rayo láser.

1.- Terrestres:

  1. Cable par trenzado: Es el que comúnmente se utiliza para los cables de teléfonos, consta de 2 filamentos de cobre, cubiertos cada uno por plástico aislante y entrelazados el uno con el otro, existen dos tipos de cable par trenzado: el «blindado», que se utiliza en conexiones de redes y estaciones de trabajo y el «no blindado», que se utiliza en las líneas telefónicas y protege muy poco o casi nada de las interferencias.
  2. Cable coaxial: Este tipo de cable es muy popular en las redes, debido a su poca susceptibilidad de interferencia y por su gran ancho de banda, los datos son transmitidos por dentro del cable en un ambiente completamente cerrado, una pantalla sólida, bajo una cubierta exterior. Existen varios tipos de cables coaxiales, cada uno para un propósito diferente.
  3. Fibra óptica: Es un filamento de vidrio sumamente delgado diseñado para la transmisión de la luz. Las fibras ópticas poseen enormes capacidades de transmisión, del orden de miles de millones de bits por segundo. Además de que los impulsos luminosos no son afectados por interferencias causadas por la radiación aleatoria del ambiente. Actualmente la fibra óptica está remplazando en grandes cantidades a los cables comunes de cobre.

Herramientas de Software para la

Automatización de Oficinas

Definición de Software:

El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibiera una educación instantánea; de pronto «sabe» cómo pensar y cómo operar.

El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de computo. Distinguiéndose de los componentes físicos llamados hardware. Comúnmente a los programas de computación se les llama software; el software

 asegura que el programa o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar.

Es simplemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados.

El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware.

Clasificaciones del Software

El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación, Software de uso general, Software de Aplicación. (Algunos autores consideran la 3era y 4 ta clasificación como una sola).

Lenguajes de Programación

Mediante los programas se indica a la computadora que tarea debe realizar y cómo efectuarla, pero para ello es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir, el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.

Software de Uso General

El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario (manuales de referencia, plantillas de teclado y demás).

Software de aplicaciones

El software de aplicación esta diseñado y escrito para realizar tareas específicas personales, empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicaciones procesan datos (recepción de materiales) y generan información (registros de nómina) para el usuario.

  1. Procesadores de Palabras: Son utilizados para escribir cartas, memorándums y otros documentos, El usuario teclea una serie de letras o párrafos, y son mostradas en la pantalla. El usuario puede fácilmente adherir, borrar y cambiar el texto hasta que el documento quede exactamente como se desea.Algunas características avanzadas que encontramos en la actualidad en los procesadores de texto son: corrector de ortografía, diccionario de sinónimos, presentación preliminar del texto antes de imprimir. Ejemplos de procesadores de texto: Word, AmiPro, Wordperfect.
  2. Hojas de Cálculo: Una Hoja de Cálculo es una herramienta para calcular y evaluar números. También ofrece capacidades para crear informes y presentaciones para comunicar lo que revelan los análisis; el usuario teclea los datos y las fórmulas que serán usadas para obtener los resultados; después el programa aplica las fórmulas a los datos y así obtiene los resultados; una de sus características mas importantes es la habilidad de preguntar (Condicionales)»what IF» «QUE PASARÍA SI?», cambiando los datos y rápidamente re- calculando los nuevos resultados.La mayoría de las Hojas de Cálculo cuentan también con la posibilidad de graficar estos resultados en diferentes estilos de gráficas (Barras, Líneas, Pastel, etc.). Ejemplos de Hojas de Cálculo: Excel, Lotus 123, Quatro.
  3. Paquetes de Presentación: Software que permite al usuario diseñar presentaciones para desplegarlas a través de la misma computadora o imprimir diapositivas y acetatos. Contienen opciones avanzadas para integrar efectos en cada cambio de diapositiva. Ejemplos: Presentation, Power Point.
  4. Shareware y Freeware:
  5. Shareware: Software distribuido de forma gratuita para ser probado. Si el usuario decide quedarse con el programa y seguir usándolo, debe pagar al desarrollador. Normalmente, el shareware es desarrollado por compañías relativamente pequeñas o inclusive por programadores individuales, y generalmente es barato.
  6. Freeware: Programas gratuitos que los desarrolladores ponen a disposición de otros usuarios sin ningún costo. En algunos casos el desarrollador no reclama derechos de autor y el programa se convierte en software del dominio público. En otros casos, el software tiene derechos de autor pero el desarrollador ha permitido a otra gente usarlos y copiarlo gratuitamente.
  7. Aplicación Vertical: Las aplicaciones verticales son programas que realizan todas las fases de una función crítica del negocio. Estos programas, que muchas veces corren en una combinación de Mainframes, minis y computadoras personales, se denominan algunas veces aplicaciones de misión crítica.Generalmente son desarrollados a la medida por cada compañía que los tiene y son usados por muchos individuos dentro de una Organización.

Sistemas de Información

Una aplicación comercial de la computadora. Está constituido por las bases de datos, los programas de aplicación, los procedimientos manuales y automatizados, y abarca los sistemas informáticos que llevan a cabo el procesamiento.

Las bases de datos almacenan los asuntos de los negocios (archivos maestros) y sus actividades (archivos de transacciones). Los programas de aplicación proveen la entrada de datos, la actualización, consulta y procesamiento de informes.

Los procedimientos manuales documentan la forma en que se obtienen los datos para su introducción, y la forma en que se distribuyen las salidas del sistema. Los procedimientos automáticos instruyen a la computadora acerca de cómo ejecutar las actividades de procesamiento por lotes, en las cuales la salida de un programa es automáticamente transferida a la entrada de otro programa.

El procesamiento diario es el procesamiento interactivo y en tiempo real de las transacciones. Al final del día o de algún otro período, los programas de procesamiento por lotes actualizan los archivos maestros que no fueron actualizados desde el período anterior.

Se imprimen los informes de las actividades de ciclo. El procedimiento periódico de un sistema de información es la actualización de los archivos maestros, en la cual se agrega, borra y modifica la información sobre clientes, empleados, proveedores y productos.

Cada sistema abarca a los que lo suceden: 

Equipo de Computación

  1. Historia de las Computadoras Personales: Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es «una computadora en un chip», o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981, IBM®, sacó a la venta su modelo «IBM PC», la cual se convirtió en un tipo de computadora ideal para uso «personal», de ahí que el término «PC» se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados «PC y compatibles», usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras, como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también «PC´s», por ser de uso personal.

En la actualidad existen variados tipos en el diseño de PC´s:

  • Computadoras personales, con el gabinete tipo minitorre, separado del monitor.
  • Computadoras personales portátiles «Laptop» o «Notebook».
  • Computadoras personales más comunes, con el gabinete horizontal, separado del monitor.
  • Computadoras personales que están en una sola unidad compacta el monitor y el CPU.

Las computadoras «laptops» son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display).

A.1) Supercomputadoras: Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica.

Así mismas son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener.

Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

  • Búsqueda y estudio de la energía y armas nucleares.
  • Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
  • El estudio y predicción de tornados.
  • El estudio y predicción del clima de cualquier parte del mundo.
  • La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.
  • Etc.

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.

A.2) Minicomputadoras: En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y ésto ayudo a reducir el precio y costos de mantenimiento.

Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo.

En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.  

A.3) Estaciones de trabajo o Workstations: Las estaciones de trabajo se encuentran entre las minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para:

  • Aplicaciones de ingeniería
  • CAD (Diseño asistido por computadora)
  • CAM (manufactura asistida por computadora)
  • Publicidad
  • Creación de Software

En redes, la palabra «workstation» o «estación de trabajo» se utiliza para referirse a cualquier computadora que está conectada a una red de área local.

  1. Historia de los Servidores y Mainframes:

B.1) Macrocomputadoras o Mainframes:

Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida.

Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar los cientos de cables d e los periféricos, y su temperatura tiene que estar controlada.

B.2) Servidor de archivos:

Dispositivo de almacenamiento de archivos en una red de área local al que todos los usuarios de la red pueden acceder. A diferencia de un servidor de disco, que aparece ante el usuario como una unidad de disco remota, un servidor de archivos es un dispositivo más complejo que no sólo almacena archivos sino que también los administra y los mantiene en orden a medida que los usuarios de la red los solicitan y los modifican.

Para gestionar las tareas de manejo de varias solicitudes (a veces simultáneas), un servidor de archivos cuenta con un procesador y software de control, así como una unidad de disco para el almacenamiento. En redes de área local, un servidor de archivos suele ser una computadora con un disco duro grande que está dedicado exclusivamente a las funciones de administración de archivos compartidos.

  1. Terminales Tontas: en informática, terminal sin capacidad de proceso. Por lo general, los terminales tontos sólo son capaces de presentar caracteres alfanuméricos y de responder a un protocolo de comunicaciones sencillo, como el VT-52, VT-100 o ANSI.

Es dispositivo formado por un monitor y un teclado. Un terminal no hace prácticamente ningún procesamiento por sí solo, sino que está conectado a una computadora con un enlace de comunicaciones a través de un cable. La entrada a través del teclado se envía desde el terminal a la computadora, y la salida de vídeo se envía desde la computadora al terminal.

Los terminales se usan sobre todo en sistemas multiusuario y no se utilizan hoy día en computadoras personales de un solo usuario. En electrónica, un punto que puede ser conectado físicamente a algún otro, normalmente a través de un cable, para formar una conexión eléctrica.

  1. Tecnologías RISC y CISC:

RISC: (Reduced Instruction Set Computer) computadora de conjunto de instrucciones reducido

Arquitectura de computadoras que ejecuta un número limitado de instrucciones. El concepto es que la mayoría de los programas usan generalmente unas pocas instrucciones, y si se acelera la ejecución de esas instrucciones básicas, se mejora el rendimiento.

La arquitectura RISC elimina una capa de carga operativa llamada «microcódigo», que se emplea normalmente para facilitar la agregación de nuevas y complejas instrucciones a una computadora. Las computadoras RISC poseen un pequeño número de instrucciones montadas en los circuitos de nivel inferior, que trabajan a máxima velocidad.

Aunque las máquinas RISC son sólo de un 15% a un 50% más veloces que sus contrapartidas CISC

CISC: (Complex Instruction Set Computer) Computadora de conjunto de instrucciones complejo Computadoras que poseen un conjunto de instrucciones muy extenso. Las máquinas CISC tienen de doscientas a trescientas instrucciones, que están grabadas en microcódigo.

  1. Tecnologías MMX y Pentium Pro:

MMX: (Multimedia Extensions) son 57 instrucciones MMX que se usan para acelerar los procesos de programas multimedia tales como vídeo y sonido, ocho registros MMX de 64 bits

Pentium Pro: incorpora en el mismo encapsulado del procesador un total de 256 ó 512 KB de memoria caché de segundo nivel(caché L2). La comunicación entre dicha memoria caché y el núcleo del procesador se realiza a la velocidad a la que funcione el Pentium Pro.

  1. Microprocesadores:

F.1) Historia de los Microprocesadores:

Muchas grandes invenciones simplemente son el resultado de que alguien se ha encontrado con un problema técnico y propone una solución diferente y audaz. Y típicamente, ese problema tiene que ver con dinero.

Ese era el caso ciertamente a finales de 1969 para una joven y agresiva compañía japonesa llamada

Busicom. Busicom había tenido realmente varios nombres en su breve carrera, incluso ETI y Máquinas Calculadoras de Japón.

Esa era una característica de naturaleza imprevisible de esa empresa. Y Busicom no estaba solo. Era uno de los centenares de compañías que estaban decididos a entrar en un negocio que estaba surgiendo como un gran mercado de consumidores, hecho posible por los circuitos integrados: las calculadoras.

Se había comprobado que existía un marcado interés por las nuevas calculadoras versiones digitales que las antiguas calculadoras electromecánicas, especialmente cuando estas versiones digitales podían realizar cálculos complejos como raíces cuadradas.

Busicom no era ni un jugador mayor, ni uno menor en este negocio. Justo uno de las multitudes. Pero era un jugador que tenía unas buenas ganas para tomar riesgos tecnológicos más que sus competidores, y contaba con un visionario tecnológico en su laboratorio llamado Masatoshi Shima.

A través de 1969, se reconoció generalmente en la industria de la electrónica que era teóricamente posible usar el nuevo semiconductor metal-on-silicon (MOS) para poner toda la función de una calculadora en una sola pastilla. ¿Pero quién estaba deseoso de hacerlo?.

Busicom escogio a Intel Corporation. Una compañía diminuta de Santa Clara, California para fabricarlo.

Luego de las correcciones realizadas en el diseño y construcción por parte de Federico Faggin de Intel del primer microprocesador, en Febrero de 1971 el 4004 estaba listo para la producción.

Así a mediados de Marzo de 1971, Intel envió el conjunto de chips de la familia 4000 a BUSICOM. Esta familia consistiría en:

  • Una ROM de 2048 bits como el 4001
  • Una memoria RAM de 320 bits como el 4002
  • Un Shift regiter de 10 bits como el 4003
  • El procesador central de 4 bits como el 4004

La revolución del Microprocesador había empezado.

El 8008 siguió al 4004 y fue formalmente introducido en Abril de 1972. Este proyecto empezó con el nombre de 1201 y se trataba de una arquitectura de 8 bits. Y fue así que el 8008 se convirtió en el primer microprocesador de 8 bits.

Para el siguiente microprocesador de 8 bits el 8080 sus primeras pruebas tuvieron lugar en Diciembre de 1973. Después que Faggin y su equipo corrigieron algunos errores, el producto fue formalmente introducido al público en Marzo de 1974.

Como Faggin diría: «El 8080 realmente creó el mercado del microprocesador. El 4004 y el 8008 lo sugirieron, pero el 8080 lo hizo realidad.»

Con la introducción del 8080 puede decirse de verdad que la humanidad cambió. La naturaleza extraordinaria del 8080 fue reconocida casi instantáneamente por miles de ingenieros en todo el mundo quienes habían estado esperando su llegada. Dentro de un año, había sido introducido en cientos de productos diferentes. Nada volvería a ser igual otra vez.

Los que se llevan el crédito de este invento(uno de las más grandes invenciones de este siglo) son: Ted Hoff como el inventor, Federico Faggin como el creador, Mazor y Shima como contribuyentes críticos.

EL PENTIUM II

Es el último Microprocesador de Intel y alcanza velocidades de hasta 400Mhz. Ya llegaron al PERU pero todavía no se ve la última versión, sin embargo ya hay muchas marcas de computadoras en Estados Unidos que los usan. La forma de este procesador y su forma de instalación es diferente, en vez usa un cartucho(de un sólo borde) el cual se coloca en la placa madre dentro de un conector tipo slot. No usa el socket7 como las anteriores PENTIUM. Más información sobre el PENTIUM II.

EL K6 DE AMD

Este procesador es el último de AMD y alcanza velocidades de hasta 266Mhz y se está trabajando en una versión de 300Mhz. Dicen que es tan rápido que el PENTIUM II. Ya llegó al PERU, pero sólo los de 200Mhz y 233Mhz. Usa el mismo socket7 de las placas madres comunes y esto hace fácil instalarlo y usarlo en las placas madres más antiguas. Más información sobre AMD K6.

EL 6×86 DE

Es el último de CYRIX y es la respuesta de este fabricante a la competencia de Intel y Amd. Este procesador puede usar una velocidad de bus de 75Mhz lo que lo hace distinto a los demás. Es posible que ya se comercialize en el PERU. Más información sobre EL 6×86 MX.

EL POWERPC DE

Este procesador de arquitectura RISC es usado en las computadoras Mac de APPLE y se dice que alcanza hasta 300 Mhz de velocidad.

F.2) Listado de los Microprocesadores:

VERSIONES DE INTEL

MICROPROCESADORES ANTERIORES AL PENTIUM

  • MICROPROCESADOR 8088
  • MICROPROCESADOR 8086
  • MICROPROCESADOR 80286
  • MICROPROCESADOR 80386
  • MICROPROCESADOR 80486
  • MODELO DX1
  • MODELO DX2
  • MODELO DX4

PENTIUM SIMPLE(COMUNES)

  • PENTIUM 60 MHZ
  • PENTIUM 66 MHZ
  • PENTIUM 75 MHZ
  • PENTIUM 100 MHZ
  • PENTIUM 133 MHZ
  • PENTIUM 166 MHZ
  • PENTIUM 200 MHZ

PENTIUM MMX (FAMILIA P55C)

  • PENTIUM MMX 166 MHZ
  • PENTIUM MMX 200 MHZ
  • PENTIUM MMX 233 MHZ

PENTIUM II Y PENTIUM PRO (FAMILIA P6)

PENTIUMS PRO

  • PENTIUM PRO DE 2OO MHZ Y CACHE L2(NIVEL2) DE 256KB, 512KB Y 1MB
  • PENTIUM PRO DE 180MHZ Y 256KB DE CACHE L2
  • PENTIUM PRO DE 166MHZ Y 512KB DE CACHE L2
  • PENTIUM PRO DE 150MHZ Y 256KB DE CACHE L2

PENTIUMS II

  • PENTIUM II DE 233 MHZ
  • PENTIUM II CELEROM DE 266 MHZ Y SIN CACHE L2
  • PENTIUM II DE 266 MHZ Y 512KB DE CACHE L2
  • PENTIUM II DE 300 MHZ Y 512KB DE CACHE L2
  • PENTIUM II DE 333 MHZ Y 512KB DE CACHE L2
  • PENTIUM II DE 350 MHZ Y 512KB DE CACHE L2
  • PENTIUM II DE 400 MHZ Y 512KB DE CACHE L2
  • MUY PRONTO EL PENTIUM II DE 450 MHZ Y 512KB DE CACHE L2

VERSIONES DE AMD

AMD K5

  • AMD K5 DE 100 MHZ
  • AMD K5 DE 133 MHZ
  • AMD K5 DE 166 MHZ

AMD K6

  • AMD K6 DE 166 MHZ
  • AMD K6 DE 200 MHZ
  • AMD K6 DE 233 MHZ
  • AMD K6 DE 266 MHZ
  • AMD K6 DE 300 MHZ

VERSIONES DE CYRIX

CYRIX M1

CYRIX 6×86 MMX(LLAMADO ANTERIORMENTE M2)

  • 6x86PR166 MMX
  • 6x86PR200 MMX
  • 6x86PR233 MMX
  • 6x86PR266 MMX
  • 6x86PR300 MMX