Historia de la Computación

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Beneficios de la Era Espacial Mejoras Para La Sociedad

PRIMEROS AVANCES  TÉCNNICOS APLICADOS A LA SOCIEDAD

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite “oír” los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del “empleado bancario” ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos “bigotes” de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso “Liberty”: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero “Liberty”

El “Liberti” fue el primero de los cargueros fabricado» en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos “Liberty” diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese “caso de emergencia”, todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran “volcadas” y botadas de costado. Una rareza notable la constituyeron los llamados “barcos de cemento”. Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir “el barco de cemento”, después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Los Sucesos mas importantes del Siglo XX:Guerras Mundiales,Descolonizacion

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la “gran guerra”, como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra.

Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la “madre Rusia” durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó “gran Guerra Patriótica”. (picar en la foto para mas información)

 

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal.

Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

 

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

 

Avances Cientificos Despues de la Guerra Television Color TV Color

La televisión en colores es uno de, los astros domésticos más jóvenes de la era electrónica. Y, a pesar de haberse vendido inicialmente a precios astronómicos, ese nuevo juguete va, poco a poco, penetrando en las casas de los estratos medios. No obstante, la calidad técnica de esas transmisiones aún no ha alcanzado un punto “óptimo” de realización tecnológica, y los costos de producción continúan siendo bastante elevados, lo que impide que ella ocupe definitivamente el lugar conquistado por su rival en blanco y negro. Al respecto, investigaciones recientes estudian la posibilidad de substituir f/ tubo de la TV en colores —que representa cerca del 50 al 60 % del costo del aparato— por un sistema menos costoso, como pantallas “planas” o el cristal líquido, usado ya en calculadoras de bolsillo y relojes electrónicos.

Los Primeros Pasos….La Televisión
La idea de utilizar ondas de radio para transportar información visual se remonta a los primeros tiempos de la radio, pero no llegó a ser factible hasta 1926. El principio básico es fragmentar la imagen en una serie de puntos que entonces se transmiten y muestran en una pantalla tan rápidamente que el ojo humano los percibe como una imagen completa.

En 1926 el inventor escocés John Logie Baird (1888-1946) mostró una televisión basada en el método mecánico de repasar una imagen en líneas de puntos de luz. De todas formas, el sistema de Baird tenía poco futuro y fue rápidamente sustituido por un sistema totalmente electrónico. Este último fue desarrollado por Vladimir Zworykin (1889-1982), ingeniero de origen ruso pero que trabajaba en EUA. Su primera cámara útil, hecha en 1931, enfocó la imagen sobre un mosaico de células fotoeléctricas (ver p. 36-37). El voltaje inducido en cada célula fue una medida de la intensidad de luz en este punto, y podía transmitirse como una señal. Una cámara de televisión moderna opera esencialmente de la misma manera, midiendo la intensidad de luz en cada punto de la imagen. Esta información se codifica y transmite entonces en la onda de radio.

En el extremo receptor, la señal tiene que ser decodificada. Un televisor es básicamente un tubo de rayos catódicos, en el cual un “cañón” dispara un haz de electrones hacia una pantalla luminescente. Cuando chocan con ella, la pantalla se ilumina. Para reconstruir la imagen en su totalidad, el haz se mueve de lado a lado en una serie de líneas (625) en los televisores, cubriendo toda la pantalla en 1/25 segundos.

Historia Evolución Tecnológica Post Guerra Mundial
LA TELEVISIÓN COLOR: Los principios de la moderna televisión electrónica estaban bien establecidos hacia mediados de los años 30, época en que tanto en EE.UU. como en Gran Bretaña se realizaban transmisiones regulares, aunque para una audiencia relativamente reducida. La definición era mala, la imagen era titilante y las técnicas de realización eran primitivas, pero aun así se ofrecía un servicio aceptable. Los adelantos en este campo quedaron bruscamente detenidos por el estallido de la guerra en Europa.

Una vez finalizado el conflicto, las investigaciones continuaron más o menos desde el punto donde habían quedado en 1939. La calidad mejoró considerablemente gracias a la aplicación de algunos adelantos en electrónica logrados durante la guerra, pero uno de los rasgos básicos seguía inalterado: la imagen era en blanco y negro.

No había en realidad dificultades técnicas, ya que los problemas de la televisión en color son básicamente los mismos que los de la fotografía en color, que se habían superado mucho tiempo antes. En esencia, la imagen transmitida debía separarse en tres imágenes, una roja, otra verde y una tercera azul, que luego se reproducirían, superpuestas, en la pantalla del receptor.

De manera bastante sorprendente, teniendo en cuenta la determinación con que se abandonaron los sistemas fotomecánicos de televisión en los años 30, el primer sistema adoptado (diseñado por Peter Goldmark en 1951, en Estados Unidos) consistía en un disco giratorio con filtros de color, colocado delante del objetivo de la cámara. Sin embargo, en 1953, la compañía RCA perfeccionó un sistema completamente electrónico por el cual, el rayo de luz transmitido a través del objetivo de la cámara se divide en sus componentes rojo, verde y azul mediante espejos selectores del color. Las tres imágenes se transforman entonces en una señal que se transmite en dos modalidades. La primera, denominada luminancia, depende del brillo de la imagen.

La segunda, llamada crominancia, está relacionada con el color. En el receptor, la señal de crominanciaes recibida por tres cañones de electrones cuyos rayos barren la pantalla, activando un gran número de puntos fosforogénicos que producen una luminosidad roja, verde o azul. Como los sistemas de luminancia y crominancia están separados, las transmisiones de televisión en color pueden ser recibidas también por receptores de blanco y negro.

En 1960, la televisión ya no era una novedad en el mundo occidental y el televisor se había convertido en un elemento corriente entre los aparatos domésticos. El número de receptores ascendía para entonces a unos 100 millones, el 85 % de los cuales se encontraban en Estados Unidos.

En 1970, la cifra había aumentado a más del doble, con unos 230 millones de aparatos. A principios de los años 80, los televisores en color habían desplazado a los aparatos de blanco y negro. Para entonces, había en casi todos los hogares de Estados Unidos (98 %) por lo menos un televisor, que era en color en el 80 % de los casos.

Estas cifras se refieren. naturalmente, a los receptores domésticos y no tienen en cuenta los numerosos sistemas de televisión muchos de circuito cerrado) utilizados con fines especiales: por ejemplo, dispositivos antirrobo en los comercios, demostraciones de operaciones quirúrgicas a estudiantes y observaciones de la superficie terrestre desde satélites.

PARA SABER MAS SOBRE LOS COMIENZOS DE LA TELEVISIÓN:

En 1925, el año en que el inventor escocés John Logie Baird se convirtió en la primera persona que transmitió imágenes en movimiento a un receptor lejano, solo un puñado de ingenieros y hombres de negocios de amplios horizontes habían oído hablar de la nueva tecnología que iba a transformar la cultura.

No obstante, entre estos primeros visionarios el desarrollo de la televisión todavía estaba en estado embrionario. Trabajando en el laboratorio casero de su ático londinense, Baird, desconocido y pobre, construyó una cámara que registraba los objetos con un haz concentrado de luz. Utilizó una célula fotoeléctrica para convertir la luz y la sombra del objeto registrado en electricidad y fabricó un receptor que realizaba el proceso inverso.

El 2 de octubre registró la cabeza de un muñeco y observó con alegría que su cara se reproducía temblorosa en la pantalla que había colocado en la habitación contigua. Corriendo hacia un edificio del otro lado de la calle, le pidió a un portero que se sentara frente a su cámara. El joven William Taynton fue la primera persona televisada.

El sistema de Baird consistía en un aparato mecánico rudimentario que utilizaba discos con agujeros para registrar el objeto, deshacer la luz en rayos y convertir los en una imagen proyectable del objeto original. Funcionaba, pero las temblorosas imágenes provocaban dolor de cabeza al espectador.

Mientras Baird trataba de mejorar su modelo mecánico, otros pioneros trabajaban en sistemas electrónicos. La televisión electrónica ya había sido tratada en teoría por el físico británico Campbell Swinton en 1908. Swinton escribió: «Debe descubrirse algo apropiado. Creo que la visión eléctrica a distancia entra en el reino de lo posible».

Los descubrimientos a los que aludía fueron realizados por Vladimir Kosma Zworykin y Philo T. Farnsworth. El físico norteamericano nacido en Rusia y el estudiante de Utah desarrollaron las primeras lámparas de imágenes. En 1927, Farnsworth presentó un sistema sin los discos de Nipkow en los que confiaba Baird. Con la invención de Farnsworth, el reino de lo posible ya era probable.

Virus Informaticos Efectos de los Virus Clasificacion Tipos Antivirus

LOS VIRUS INFORMÁTICOS: Lamentablemente en algún momentos hemos pasados por estos momentos molestos, en donde nos damos cuenta que nuestro ordenador hace cosas muy raras, “nos ignora” y hasta a veces nos percatamos que hemos perdido gran o toda la información que venimos almacenando durante años en el disco duro. Pero cuando nos damos cuenta, ya es tarde y todo está perdido, nos agarra un ataque de ira, de impotencia y solo apagamos rápidamente el ordenador, pero y ahora que hacemos?…

virus informaticos

En realidad, la gran mayoría de los  virus de computadoras no son tan dramáticos, pero si todos tienen algo en común, la mayoría  están diseñados para ocultarse, hacer su trabajo en silencio y evitar su detección por el mayor tiempo posible.

Han tenido un gran auge y popularidad a partir de los años 90, cuando empezaron a difundirse a través de los correos masivos vía Internet, por lo que han protagonizado noticias en todos los medios según su fama para hacer estragos. Han provocado pérdidas de miles de millones de dólares por la inactividad que generaban, y como decíamos antes la pérdida de valiosos datos.

Aun así, muchos usuarios de computadoras no están conscientes de los peligros que imponen los virus y no realizan ningún esfuerzo para proteger sus computadoras e información. Ésta es la principal razón por la cual los virus continúan siendo exitosos.

¿Qué es un virus de computadora?
Un virus es un programa parasitario que infecta a un programa legítimo, el cual normalmente se conoce como el anfitrión. Para infectar el programa anfitrión, el virus modifica al anfitrión para almacenar una copia del virus. Muchos virus están programados para hacer daños una vez que han infectado al sistema de la víctima. Como verá más adelante, un virus puede estar diseñado para hacer distintos tipos de daño. Sin embargo, la capacidad de hacer daños no es lo que define a un virus.

Para que un programa califique como virus debe ser capaz de replicarse (copiarse a sí mismo). Esto puede significar que se copie a si mismo en distintos lugares de la misma computadora o busque la manera de llegar a otras computadoras, por ejemplo, infectando discos o viajando a través de las redes. Los virus pueden estar programados para replicarse y viajar en distintas maneras.

Algunas formas comunes de contraer un virus son las siguientes:

1-Recibir un archivo infectado que está adjunto a un mensaje de correo electrónico o un virus que está oculto dentro del mensaje. El correo electrónico se ha convertido en el método más común de propagación de virus, especialmente ahora en que tantas personas utilizan Internet para intercambiar mensajes de archivo. Los virus también pueden ser propagados a través de salones de charla en línea y programas de mensajería instantánea.

2-Descargar un archivo infectado en su computadora a través de una red, un servicio en línea o Internet. A menos que cuente con un software antivirus que inspeccione cada archivo entrante para ver si tiene virus, es probable que no sepa si ha descargado un archivo infectado.

3-Recibir un disco infectado (un disco flexible, un CD creado en una unidad CDR, un disco flexible de alta capacidad y otros) de otra persona. En este caso, el virus podría estar almacenado en el sector de inicio del disco o en un archivo ejecutable (un programa).

4-Copiar a su disco duro un archivo de documento que está infectado con un virus de macro. Un documento infectado podría ser copiado desde otro disco o ser recibido como un archivo adjunto en un mensaje electrónico.

¿QUE PUEDE HACER UN VIRUS?
La mayoría de los virus de computadoras son relativamente inofensivos; su propósito es molestar a sus víctimas en lugar de causar un daño específico. Este tipo de virus se conocen como benignos. Otros virus en realidad son maliciosos y pueden ocasionar un gran daño a un sistema de computación si se les permite ejecutarse.

Los virus pueden estar programados para hacer distintos tipos de daños, incluyendo los siguientes:
1-Copiarse a sí mismos en otros programas o áreas de un disco.

2-Replicarse tan rápida y frecuentemente como sea posible, saturando los discos y memoria del sistema infectado y ocasionando que el sistema no se pueda utilizar.

3-Desplegar información en la pantalla.

4-Modificar, corromper o destruir archivos seleccionados.

5-Eliminar el contenido de discos enteros.

6-Permanecer dormidos durante un periodo específico o hasta que una condición particular se cumpla y entonces activarse.

7-Abrir una “puerta trasera” en el sistema infectado, lo cual permite que otra persona acceda e incluso tome control del sistema a través de una red o conexión a Internet. Este tipo de virus en realidad puede ser un tipo de programa llamado Caballo de Troya y se puede utilizar para convertir un sistema infectado en un “zombi”, que puede ser utilizado por el autor del virus para atacar otros sistemas.

Por ejemplo, utilizando virus para crear una gran cantidad de sistemas zombi, el autor puede utilizarlos para enviar miles de solicitudes a un servidor Web específico, haciendo que deje de funcionar. Este tipo de ataque también se conoce como “ataque de denegación de servicio (DOS)” o “ataque distribuido de denegación de servicio (DDOS)”, debido a que evita que el servidor proporcione servicios a los usuarios.

Esta lista no está completa. Los programadores de virus pueden ser extremadamente creativos y muchos crean virus para realizar un tipo de tarea específica, algunas veces teniendo en mente una víctima en particular. No obstante, necesita proteger su sistema de todos los tipos de virus debido a que prácticamente cualquiera de ellos puede atacarlo en cualquier momento, cuando se reúnen las circunstancias apropiadas.

Los virus pueden parecer un problema importante para los usuarios individuales dé computadoras. Sin embargo, para las corporaciones, los virus pueden ser devastadores en términos de la pérdida de datos y productividad. Las compañías de Estados Unidos pierden miles de millones de dólares todos los años en daños ocasionados por los virus.

La mayoría de los costos provienen del tiempo y esfuerzo que se requiere para localizar y eliminar virus, restablecer los sistemas, reconstruir los datos perdidos o corruptos y protegerse en contra de ataques futuros. Pero las compañías también pierden tiempo de trabajo valioso (millones de horas persona al año) debido a que los trabajadores deben esperar sin poder utilizar sus computadoras.

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Historia Evolución Tecnológica Post Guerra Mundial
Durante los anos de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental. Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos. Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado. En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950
Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo. Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953. En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.
También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles. La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos. Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez. En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura. Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado. Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines. Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones. En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional. Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección. Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente. Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia). Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX. El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania. En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año. En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento. Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Los avances tecnologicos aplicados en la vida cotidiana Cientificos

Los Avances Tecnologicos Aplicados en la Vida Cotidiana

Tecnología en la vida cotidiana: Gracias a las técnicas de producción en masa, los grandes inventos de los ss. XX y XXI forman parte de nuestra vida diaria. La invención de los electrodomésticos llevó a un incremento del tiempo libre en países desarrollados, y el concepto de progreso, en sí mismo, es sinónimo de acceso a las nuevas tecnologías. El microchip tuvo un gran impacto en las comunicaciones desde que Jack Killby y Robert Noy ce lo crearan en 1959, y la nanotecnología combinada con la llegada de Internet facilitó el acceso a la comunicación instantánea global.

LA EVOLUCIÓN TECNOLÓGICA: El ser humano ha recorrido un largo camino desde que el primer Homo sapiens saliera a cazar en África hace millones de años. La tecnología, el uso de materiales naturales y artificiales con un propósito claro, ha progresado enormemente desde el Paleolítico. Aunque es tentador creer que los logros tecnológicos del hombre en los últimos siglos son únicos, es importante mantener una perspectiva histórica.

Como hemos visto en este libro, en los últimos 12.000 años se han experimentado innovaciones revolucionarias para mejorar la vida del hombre. El desarrollo de una herramienta efectiva para matar animales debió de ser revolucionario para el cazador del Neolítico, como nos lo parecen ahora las bombas inteligentes.

El cultivo de cereales en Oriente Medio fue probablemente un acontecimiento de mucha más trascendencia que el desarrollo de los cultivos genéticamente modificados, ya que cambiaron el curso de la historia del ser humano. De manera similar, la llegada de la escritura a Mesopotamia constituye un logro más importante a largo plazo que la aparición del ordenador en tiempos modernos. Son muy numerosos los ejemplos de innovaciones e inventos que han cambiado el curso de la historia de la humanidad.

Sin embargo, la característica común de los tiempos actuales, especialmente desde la Revolución industrial, recae en la velocidad con que la innovación tecnológica se ha diseminado por toda la sociedad. En el siglo XX, la organización de la innovación tecnológica sufrió un cambio profundo. La investigación y el desarrollo ya no se llevaban a cabo de manera individual, sino en grandes organizaciones, como universidades, o laboratorios industriales o gubernamentales. La infraestructura que se necesita hoy para la investigación está mucho más allá del alcance de las personas. Esta tendencia se ha pronunciado especialmente en la segunda mitad del siglo XX, con la institucionalización de la investigación tecnológica y científica.

El siglo XXI trajo aun más cambios en la manera de llevar a cabo las innovaciones tecnológicas. La aparición de Internet y de las comunicaciones rápidas y baratas ha permitido que la investigación se disperse geográficamente, una tendencia que crecerá en los años venideros. La dispersión global de la innovación tecnológica será más rápida y el acceso a tecnologías más avanzadas, especialmente en los bienes de consumo, será más fácil y estará más extendido.

Resulta arriesgado predecir qué tipos de tecnologías aparecerán en el siglo XXI. La creatividad de la mente humana es ilimitada en esencia y, por tanto, solemos equivocamos con las predicciones tecnológicas. No se puede predecir con ningún tipo de certeza qué forma tendrá la tecnología y cómo impactará en la sociedad humana. Después de todo, incluso los científicos más brillantes de principios del siglo XIX no podrían haber imaginado los viajes espaciales ni el microprocesador. Aun así, se puede decir que el progreso tecnológico seguirá avanzando a mayor velocidad en los próximos años y posiblemente hará que la vida sea más fácil para la gran mayoría de la humanidad, con desarrollos revolucionarios en medicina, transporte y comunicaciones.

No obstante, el medio ambiente empieza , protestar, como se hace patente en el calentamiento global y en la disminución de la capa de ozono, por lo que deberíamos ralentizar los avances tecnológicos por el bien de las generaciones futuras. Sí bien en el siglo XXI ya hemos empezado a trabajar por el entorno, deberíamos fomentarlo más en el futuro.

Internet: En 1989 la WWW se inició para el Consejo de Europa de Investigación Nuclear. Nueve años después, un vehículo de seis ruedas, de menor tamaño que una hielera de cervezas, rodaba por la superficie de Marte y fue visto por internet uniendo la imaginación colectiva con la misión Mars Par Finder de la NASA. Al finalizar el 11 de septiembre de 1998, Internet demostraría su eficacia al poner a disposición de millones de usuarios de la World Wide Web, en un simple disco de 3.5 pulgada; en menos de 24 horas, toda la información sobre los escándalos sexuales de Bill Clinton. El forma:: facilitó a sus receptores acceder a cualquier detalle gráfico con sólo oprimir una tecla. Adema; e Reporte Starr, como se conoció al informe sobre el affaire Clinton, tenía la ventaja de estar completo. Ningún otro medio de comunicación lo presentó de esa manera.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letra; escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museo; estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuerna-con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y liste La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza.

Internet constituye un instrumento importante para la movilización de capitales, ya que éste pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Primeros Ordenadores Electrónicos Evolución Histórica

Primeros Ordenadores
Historia de la Computación

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente.

Primeros Ordenadores a Válvulas

Primeros Ordenadores a Válvulas

Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar comentes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

Los primeros ordenadores electrónicos
Una buena forma de determinar la importancia de un adelanto técnico es considerar las consecuencias de su repentina desaparición. Un colapso general y prolongado de los servicios básicos, como el suministro de agua y electricidad, las telecomunicaciones, el transporte público o el sistema de alcantarillado, produciría en poco tiempo el caos y resultaría imposible mantener las condiciones de vida normales.

A fines del siglo XX, otra innovación tecnológica llegó a considerarse entre los elementos esenciales para mantener la normalidad de la vida cotidiana: el ordenador. Originalmente, no era más que un instrumento de cálculo, pero llegó a convertirse en un instrumento sumamente complejo de archivo y recuperación de la información.

Primeros Ordenadores

Primeros Ordenadores Para Uso Militar y Científico

Actualmente forma parte de la vida cotidiana hasta tales extremos que resulta difícil advertir que no existía, en su forma electrónica moderna, en los años de la preguerra y que los económicos ordenadores personales de fines del siglo XX tienen una capacidad mucho mayor que los gigantescos prototipos de los años 40. A fines de los años 80, se calculaba que el mercado mundial de los ordenadores había alcanzado una cifra anual de 100.000 millones de dólares: una hazaña notable para una industria tan joven.

El ASCC (Automatic Sequence Controlled Calculator), construido en Estados Unidos por IBM en 1944, puede considerarse el prototipo original de los ordenadores modernos. Aunque era básicamente un aparato electrónico, contenía muchos dispositivos mecánicos emparentados con los presentes en un extenso linaje de máquinas anteriores, cuya historia se remonta a la máquina de sumar del matemático francés Blaise Pascal, de 1642, y al aparato bastante más complejo del alemán Gottfried Leibniz, construido 30 años más tarde.

El ASCC era un auténtico dinosaurio: pesaba cinco toneladas, tenía 16 m de longitud y contenía 800 Km. de cables eléctricos. Para los criterios actuales, su capacidad de multiplicar dos números de 11 dígitos en 3 segundos resulta poco impresionante, ya que los tiempos de operación de los ordenadores de hoy en día se miden en millonésimas de segundo.

El sucesor del ASCC fue el ENIAC (Electronic Numerícal Integrator and Calculator) que, aparte de algunos conmutadores utilizados para controlar los circuitos, era completamente electrónico. Fue construido en la Universidad de Pennsylvania por J.P. Eckert y J.W. Mauchly, con el propósito original de utilizarlo en tiempo de guerra para calcular tablas balísticas. Sin embargo, no estuvo liste hasta 1946. El ENIAC era también una máquina gigantesca, dos veces más voluminosa que el ASCC. Contenía por lo menos 18.000 válvulas termoiónicas y, al rendimiento máximo, consumía 100 kilovatios de electricidad.

ENIAC

ENIAC

Dispersar el calor resultante era un problema en sí mismo. Para programar el ENIAC, era precise mover conmutadores y hacer conexiones manualmente, mientras que el ASCC se programaba con cintas perforadas. Los dos métodos tenían sus ventajas, pero ambos eran básicamente lentos y tediosos.

Para el siguiente paso, los técnicos volvieron a inspirarse en el siglo XIX, concretamente en la máquina analítica construida por el inventor inglés Charles Babbage en torno a 1830. Sorprendentemente, una de su; más fervientes publicistas fue lady Lovelace, hija de lord Byron, que señaló que muchos cálculos exigían la repetición de una secuencia determinada de operaciones y que sería posible ahorrar tiempo y trabajo si se conseguía que la máquina se ocupara de esos cálculos automáticamente. En efecto, el ordenador debía disponer de una memoria.

Incluso antes, en el siglo XVII, Leibniz había sugerido que para el cálculo mecánico era más sencillo utilizar la notación binaria, en lugar de la decimal tradicional. En esa notación, todos los números se expresar, con dos dígitos, O y 1, y no con los diez utilizados (de-O al 9) en la notación decimal. Para una calculadora electrónica, esta idea resulta particularmente adecuada, ya que corresponde a las dos modalidades eléctricas: «off» y «on».

Estos dos conceptos fueron incorporados por Johr. von Neumann, también de la Universidad de Pennsylvania, en una máquina mucho más avanzada, e. EDVAC (Electronic Discrete Variable Automatic Computer). En este aparato, la «memoria» consistía en pulsaciones sónicas conservadas en una columna de mercurio. A principios de los años 50 apareció ur. dispositivo de memoria más complejo, basado en el hecho de que la dirección de la magnetización en ciertos materiales denominados ferritas se puede invertir cas: instantáneamente, siguiendo la dirección de la corriente eléctrica en un circuito conectado.

Por entonces, el ordenador se estaba adelantando a sus posibilidades: realizaba las operaciones con más rapidez que el ritmo con que la cinta perforada podía suministrarle las instrucciones. El siguiente paso consistió en grabar el programa de operaciones en una cinta magnética, semejante a las utilizadas para la grabador del sonido.

Este adelanto fue incorporado en 1956 a UNIVAC de Remington-Rand, el primer ordenador electrónico disponible en el mercado, ya que los pocos modelos anteriores habían sido construidos para fines especiales a un enorme coste. Por este motivo, el público en general ignoraba casi por completo los adelantos en el mundo de los ordenadores.

La situación cambió considerablemente en 1951 cuando el UNIVAC original, diseñado para procesar la información del censo en Estados Unidos, previo acertadamente la elección de Dwight Eisenhower como presidente.

Evolucion de las Microcomputadoras Historia y Evolucion Tecnologica

1965
La corporación Honeywell presenta la “computadora para cocina” H316. Es la primera computadora para el hogar y en el catálogo de Neiman Marcus se ofrece a 10 600 dólares.

1970
Ken Thompson y Denis Ritchie
crean el sistema operativo UNIX en Bell Labs. UNIX se convierte en el sistema operativo dominante para aplicaciones decisivas en los servidores, estaciones de trabajo y microcomputadoras complejas

1971
En 1971, Ted Hoff integró a todos los elementos de un procesador para computadora en un solo circuito integrado de silicio un poco más grande que un cuadro de una pulgada por lado. El resultado de sus esfuerzos es el Intel 4004, el primer microprocesador del mundo disponible en el mercado. El circuito integrado es una computadora de 4 bit que contiene 2 300 transistores, inventados en 1948, que puede ejecutar 60 000 instrucciones por segundo. Está diseñado para que se instale en calculadoras, y se vende a 200 dólares. Intel vende más de 100 000 calculadoras que llevan el microprocesador 4004. Casi de la noche a la mañana, a este circuito integrado se le encontraron miles de aplicaciones, con lo cual se abrió el camino para el mundo orientado hacia las computadoras que conocemos hoy, así como a la producción en masa de microprocesadores para computadora, los cuales contienen en la actualidad millones de transistores.
Steve Wozniak y Bill Fernandez crearon una computadora a partir de circuitos integrados que rechazaban las compañías locales de semiconductores. La computadora se llama Cream Soda Computer porque sus constructores bebían bebidas carbonatadas Cragmont mientras la construían.

1972
Dennis Ritchie y Brian Kernighan
crearon el lenguaje de programación C en los Bell Labs. El sistema operativo UNIX se vuelve a escribir, pero ahora en C.

El lenguaje C se vuelve uno de los lenguajes de programación más populares en lo tocante al desarrollo de los programas para computadora.
Se presentan los disquetes de 5 1/4 pulg, que representan una manera portátil de almacenar información y pasarla entre máquinas.

1973
La compañía IBM presenta dispositivos nuevos para guardar gran cantidad de información: el disco de 8 pulgadas con los dos lados útiles, en el que se pueden almacenar 400 KB de datos y el disco duro Winchester de 8 pulgadas con cuatro tableros de interconexión que puede almacenar la sorprendente cantidad de 70 MB de información.

Bob Metcalfe, que trabajaba en Xerox PARC, crea una metodología para conectar computadoras llamada Ethernet.

1974
Intel da a conocer un circuito integrado 8080. Este dispositivo funciona a 2 MHz y es de 8 bit, puede tener acceso a 64 KB de memoria usando una estructura de direccionamiento de 2 bytes. Tiene más de 6 000 transistores. Es capaz de ejecutar 640 000 instrucciones por segundo.
Motorola lanza el microprocesador 6800. También es un procesador de 8
bit, que se utiliza principalmente en instrumentos industriales y de automotores. Se convertirá en el circuito integrado preferido para las computadoras Apple, lo cual desencadena una batalla entre los seguidores de los microprocesadores Intel y los de Motorola.

1975
La primera microcomputadora que se encuentra en el comercio, la Altair 880, es la primera máquina en ser llamada “computadora personal”. Posee 64 KB de memoria y una estructura de bus de 100 líneas. Se vende en 397 dólares en un estuche para armar, o bien, en 439 dólares ya ensamblada. El nombre de Altair lo sugirió la hija de 12 años del editor de Popular Electronics porque Altair era aquella tarde el destino del Enterprise, la nave espacial de Star Trek, el programa de televisión que se conoce como Viaje a las estrellas.
Dos jóvenes estudiantes universitarios, Paul Alien y Bill Gates, dan a conocer el intérprete del lenguaje BASIC de la computadora Altair. Durante las vacaciones de verano, estos estudiantes forman una compañía a la que denominan Microsoft, la cual, con el paso del tiempo, crece hasta convertirse en una de las compañías de software más grandes del mundo.

1976
Steve Wozniak y Steve Jobs
construyen la computadora Apple I. Es menos potente que la Altair, pero también menos cara y menos complicada. Los usuarios pueden conectar su propio teclado y su propia pantalla, y, además, tienen la opción de montar la tarjeta madre de la computadora en cualquier gabinete que ellos elijan, como una caja de metal, de madera o un portafolios. Jobs y Wozniak forman la AppleComputer Company el día primero de abril. April Fool’s Day, y el nombre de la empresa se debe a que la manzana era su fruta predilecta.

1977
Se da a conocer la computadora Apple II. Ya viene ensamblada dentro de un gabinete y tiene además un teclado integrado. Los usuarios la deben conectar a sus televisores.

Las microcomputadoras totalmente ensambladas pegan con fuerza en el mercado, en el que Radio Shack, Commodore y Apple venden sus modelos. Las ven tas son bajas porque nadie sabe que hacen exactamente estas máquinas.
La Datapoint Corporation anuncia la Attached Resource ComputincNetwork (ARCnet), la primera técnica LAN comercial cuya pretensión e¿ que la aprovechen las aplicaciones de las microcomputadoras.

1978
Intel lanza el circuito integrado 8086 de 16 bit que fija una nueva norma en cuanto a potencia, capacidad y rapidez dentro de los microprocesadores. Epson anuncia la impresora de matriz de puntos MX80, en la que se conjunta un alto rendimiento y relativamente bajo precio. (Epson de orígenes japoneses, inicia sus operaciones en Estados Unidos en 1975 como Epson America, Inc., y se convierte en una de las primeras de muchas compañías extranjeras en Estados Unidos que contribuye al crecimiento de la industria de las computadoras personales. Hasta este momento sólo habían estado presentes puras compañías estadounidenses. Según Epson, la compañía absorbió 60% del mercado de las impresoras de matriz de puntos con la MX80.)

1979
Intel introduce el microprocesador 8088, que ofrece una arquitectura interna de 16 bit y un bus externo de 8 bit. Motorola presenta el circuito integrado 60000; contiene 60.000 transistores, de donde se tomó su nombre. Se usará en las primeras computadoras MachintochSoftware Arts, Inc. da a conocer VisiCalc, el primer programa comercial que es una hoja de cálculo y que se puede utilizar en las computadoras personales. Siempre se considera que VisiCalc es el que abrió el camino a las computadoras personales en el mundo de los negocios.

Bob Metcalfe, el creador de Ethernet, forma 3Com Corp, para perfeccionar productos basados en Ethernet. Con el tiempo, Ethernet evolucionó en el sistema de interconexión en redes más usado del mundo.
MicroPro International introduce WordStar, el primer programa comercialmente exitoso para procesar palabras que se puede usar en microcomputadoras compatibles con IBM.

1980
La compañía IBM escoge a Microsoft (fundada por Bill Gates y Paul Allen) para que proporcione el sistema operativo de su próxima computadora personal. Microsoft compra un programa que desarrollóSeattle Computer Products, llamado QDOS (Quick and Dirty Operating Systems) y lo modifica para correrlo en el hardware de IBM. Bell Eaboratories inventa el Bellmac32, el primer microprocesador de un solo circuito integrado con una arquitectura interna de 32 bit un bus de datos de 32 bit. Ea Eotus Development Corporation da a conocer el programa con hoja de cálculo integrada Eotus 123. el cual combina hoja de cálculo, gráficos y base de datos en un solo paquete.

1981
Adam Osborne fue el creador de la primera computadora portátil del mundo, la Osborne 1. Pesa casi 22 libras, cuenta con dos unidades de disco de 5 1/4 pulg, 64 KB de RAM y un monitor de 5 pulg y carece de disco duro. Se basa en un procesador z80, trabaja con el sistema operativo CP/M y se vende en 1 795 dólares. WordStar (una aplicación para procesar palabras) está incorporado en la Osborne 1, así como SuperCalc, que es una hoja de cálculo. Es un logro enorme.
La compañía IBM presenta la IBMPC con un CPU Intel 8088 que funciona a 4.77 MHz, tiene 16 KB de memoria, un teclado, un monitor, una o dos unidades de disco de 5 1/4 pulg y un precio de 2 495 dólares.
Por otro lado, Hayes Microcomputer Products, Inc., presenta la SmartModern 300, que se vuelve con rapidez el patrón de la industria.
Xerox da a conocer la computadora Xerox Star. A la larga, su alto precio la condenó al fracaso comercial, pero sus características inspiran toda una nueva dirección en el diseño de computadoras. Una pequeña caja sobre ruedas el primer mouse ejecuta órdenes sobre la pantalla, la primera interfaz de gráficos para el usuario.

1982
La compañía Intel da a conocer el microprocesador 80286 de 16 bit. Se forma Sun Mycrosystems, y empieza a montar la estación de trabajo Sun1. Dan a conocer AutoCAD, un programa para diseñar objetos en dos o tres dimensiones. AutoCAD revolucionará las industrias de la arquitectura y la ingeniería.
Work empieza a trabajar sobre TCOP/IP. Se usa por primera vez el término Internet para describir la red de redes mundial, que proviene de ARPANET.

1983
La revista Time califica a la computadora como “La Máquina del Año” 1982, con lo cual reconoce el nuevo papel de la computadora en la sociedad. La compañía Apple presenta a Lisa, una computadora con un sistema operativo puramente gráfico y un ratón. La industria ha recibido un gran estímulo, pero el precio de Lisa de 10 000 dólares desanima a los compradores.
La compañía IBM da a conocer la IBMPC XT, que, en esencia, es un PC con un disco duro y más memoria. La KT puede almacenar programas y datos en su disco duro de 10 Mb. incorporado.
Crean la primera versión del lenguaje de programación C++, el cual permite escribir programas en piezas independientes reutilizables, llamadas objetos.
Lanzan la computadora portátil Compaq, el primer clon de PC exitoso 100% compatible. (El término clon se refiere a cualquier PC que se base en la misma arquitectura usada en las computadoras personales de IBM.) A pesar de 28 libras de peso, casi 13 kg de peso, se vuelve una de las primeras computadoras en ser jalada por los aeropuertos.

1984
Adobe Systems libera su sistema PostScript, el cual permite que las impresoras generen impresiones muy bien definidas con diversos tipos de letras, así como imágenes muy complejas. Richard Stallmanabandona el Instituto Tecnológico de Massachusetts para iniciar el proyecto de software gratis (GNU no es Unix). Este proyecto crece luego de que se le añaden miles de programas a la biblioteca de software gratis de acceso libre, disponible mediante una licencia especial.
La Free Software Foundation, una opción ante los programas caros de acceso restringido. Apple presenta la microcomputadora Macintosh la cual ofrece una interfaz “amigable con el usuario”.
La compañía IBM monta la IBMPC AT, una computadora de 6 MHz en la que está incorporado el procesador 80286, que fija el estándar de las computadoras personales que funcionan con DOS.
IBM presenta su sistema de redes Token Ring. Es un sistema confiable y redundante que puede enviar paquetes a 4 Mbps; varios años más tarde esta velocidad aumentaría hasta 16 Mbps.
La compañía Satellite Software International presenta el programa procesador de palabras WordPerfect.

1985
Intel lanza el procesador 80386 (también conocido como 386), que es un procesador de 32 bit. Puede direccionar más de 4 mil millones de bytes de memoria y funcionar 10 veces más rápido que el 80286. Aldus lanzaPageMaker para las Macintosh, el primer programa para edición en el escritorio, utilizable en microcomputadoras. PageMaker se acomoda acoplado con la impresora LaserWriter de Apple y el sistema PostScriptde Adobe en la era de la edición en el escritorio.

1986
La compañía IBM presenta la PC convertible, la primera computadora portátil de IBM y la primera computadora fabricada con Intel que cuenta con una unidad de disco de 3 1/2 pulg. Microsoft vende su primera reserva pública a 21 dólares la acción, y reúne 61 millones de dólares en la oferta pública inicial.
Se efectúa la primera conferencia internacional sobre la técnica del CDROM en Seattle, convocada por Microsoft. Los discos compactos se consideran como el medio de almacenamiento del futuro para los usuarios de computadoras.

1987
La compañía IBM presenta la nueva línea PS/2 de computadoras, cuyas características son un procesador de 20 MHz 80386. Esta línea de productos incluye el bus MicroChannel, pero no es un gran éxito porque los consumidores no quieren reemplazar los periféricos estándar de la industria. Para competir con la arquitectura MicroChannel de IBM, un grupo de otros fabricantes de computadoras introduce el bus EISA (Extended Industry Standard Architecture).
La IBM lanza su monitor Video Graphics Array (VGA) que ofrece 256 colores a una resolución de 320 x 200 y 16 colores a 640 x 480.
Apple Computer lanza la computadora Macintosh II, dirigida al mercado de la edición de textos. Comprende un monitor VGA. Apple Computer presenta HyperCard, un lenguaje de programación para las Macintosh, el cual aplica la metáfora de encimar tarjetas de índice para representar un programa una clase de lenguaje de programación visual. HyperCard permite enlaces con diferentes partes de un programa o con diferentes programas. Este concepto dará origen al desarrollo de HTML (hypertext markup language). Motorola da a conocer su microprocesador 68030.
Novell presenta su sistema operativo de redes, llamado NetWare.

1988
La IBM y Microsoft montan OS/2 1.0, el primer sistema operativo de escritorio que ejecuta varias tareas. Su alto precio, una curva de aprendizaje de pendiente elevada y la incompatibilidad con las computadoras personales existentes contribuyen a la falta de participación en el mercado. Apple Computer entabla el único juicio más grande en la industria de las computadoras contra Microsoft yHewlettPackard, en el que reclama violaciones a los derechos de autor de su sistema operativo y su interfaz de gráficos para el usuario.

Hewlett Packard introduce la popular primera impresora de inyección de tinta, la HP Deskjet. La nueva compañía de Steve Job, NeXT, Inc., da a conocer la computadora NeXT, que posee un procesador Motorola 68030 de 25 MHz. Ea NeXT es la primera computadora en usar una programación orientada a objetos en su sistema operativo y un impulsor óptico, en lugar de uno flexible. Apple introduce el Apple CD SC, un dispositivo de almacenamiento CDROM que permite el acceso de hasta 650 MB de datos.
Un virus llamado Internet worm es liberado en la Internet, y ocasiona que 10% de todas las computadoras conectadas a Internet queden incapacitadas.

1989
Intel lanza el circuito integrado 80486, que también se conoce como 486, el primer microprocesador de un millón de transistores del mundo. Este circuito integrado comprende un CPU 386 y un coprocesador matemático dentro del mismo circuito. Tim Berners Lee elabora un software alrededor del concepto de hipertexto, que permite al usuario hacer clic en una palabra o una frase de un documento y saltar a otro lugar del mismo documento o a otro archivo. Este software proporciona los fundamentos para el desarrollo de la World Wide Web y es la base de los primeros buscadores de la Web.

El CERN, el laboratorio de física de partículas de Europa, que se localiza en Ginebra, Suiza, crea la World Wide Web con el fin de que la utilicen los investigadores científicos. Con la introducción de Word para Windows de Microsoft de millones de usuarios empiezan a adoptar la sucesión de programas Office de Microsoft.

Diferencias entre el Paleolitico y el Neolitico Caracteristicas Vida

Diferencias entre el Paleolítico y el Neolítico

INTRODUCCIÓN HISTÓRICA:

Ningún secreto ha sido más celosamente guardado por la naturaleza que el de la aparición del hombre. A pesar del extraordinario progreso científico en el curso de las últimas décadas, es imposible aún decir con exactitud cuándo el hombre apareció sobre la tierra. Posiblemente, la mayor dificultad radica en que el hombre mismo es muy difícil de ser definido.

Cuando se trata de peces, anfibios, reptiles o pájaros, podemos encarar su estudio, ateniéndonos a sus peculiaridades físicas; pero en cuanto abordamos al hombre, debemos tener en cuenta no sólo su físico sino también su formación intelectual y moral. Establecer el árbol genealógico de la humanidad es, aún hoy, tarea difícil.

Es sabido que hace más de 15 millones de años existieron simios mucho más parecidos al hombre que a los monos de hoy.

Pero no hay testimonios que nos permitan hablar de animales que fuesen capaces de producir fuego, fabricar utensilios, enterrar a sus muertos, dibujar, que es lo que distingue, entre otras cosas, aun a los hombres más primitivos, de toda otra criatura existente.

La Prehistoria es la ciencia que investiga la actividad humana en épocas anteriores a todo documento escrito, tradición o leyenda. De estos tiempos tan remotos sólo quedan vestigios del hombre primitivo: sus propios huesos, moradas, armas y utensilios. El estudio de estos restos presenta muchas dificultades y generalmente las soluciones son simples hipótesis o conjeturas.

Aunque la Prehistoria se ocupa de épocas remotísimas, su estudio es más reciente que el de la Historia, pues se originó a mediados del siglo pasado con el francés Jacobo Boucher de Perthes, naturalista que, por el año 1837, realizó las primeras excavaciones al norte de Francia.

La Protohistoria es un período de transición, que continúa al anterior y en el cual, además de los restos arqueológicos, se valorizan tradiciones y leyendas.

La Historia comienza con la aparición de los primeros documentos escritos, es decir, con la invención de la escritura, aproximadamente entre los 4.000 a 5.000 años antes de Cristo.

Muchas dificultades ofrece reconstruir los comienzos de la evolución cultural del hombre a partir de la época en que empezó a poblar la superficie terrestre. En una primera y larguísima etapa desconocía la vida común organizada, no cuidaba rebaños ni sembraba pero, debido a su inteligencia superior y a su aptitud para emplear un lenguaje hablado, pudo adaptarse a la naturaleza e iniciar una lenta y difícil marcha hacia una vida mejor.

Por el conocimiento transmitido a través de sucesivas generaciones y la habilidad de sus manos flexibles, el hombre alcanzó un nivel de progreso que comprende su cultura primitiva, así denominada porque debe ubicarse al comienzo de la historia de la humanidad.

Según el material que el hombre de aquella lejana época empleaba en sus armas y utensilios, la ciencia prehistórica distingue la Edad de Piedra y la Edad de los Metales.

Para la Edad de Piedra observe la tabla mas abajo, donde está divida en el Paleolítico (piedra tallada)  y Neolítico (piedra pulida).

Edad de los Metales
Comprende dos períodos:
a)   Edad del Bronce. El cobre fue el primer metal empleado por el hombre para remplazar a la piedra en la construcción de variados objetos. Comenzó a usarse —unos 4000 años a. C.— en regiones cercanas al golfo Pérsico, luego en Egipto y más tarde en Europa. Es muy maleable y se lo encuentra generalmente puro, lo cual explica por qué fue el primer metal utilizado; sin embargo, carecía de la dureza necesaria para confeccionar objetos resistentes.

Con posterioridad el hombre primitivo logró fundir el cobre con el estaño y obtuvo el bronce, de mayor consistencia y por ello muy apto para fabricar armas.- En una ciudad lacustre de Suiza se encontraron un horno y diversos residuos de fundición. Comenzó en esta forma la metalurgía. de gran trascendencia para el progreso del género humano.

b)   Edad del Hierro. Manuscritos egipcios, cuya antigüedad se calcula en 1250 años (a. C), mencionan por primera vez, el empleo del hierro, aunque es probable que este metal fuera introducido por otros pueblos invasores que conocían su uso a pesar de poseer menor cultura. En general, el hierro fue utilizado luego de la invención, de la escritura, y por esto sólo es prehistórico en contados pueblos.

En las ciudades de La Teñe (Suiza) y en Hallstatt (Alemania) —habitadas por pueblos celtas y germanos— se han encontrado espadas de hierro, de hoja ancha y pesada,  hachas y puntas de lanzas del mismo metal. A partir de esta Edad comienzan los tiempos históricos.

LA EDAD DE PIEDRA:

PALEOLÍTICO
(Piedra Vieja o Tallada”

Este período constituye casi el 99% del registro arqueológico mundial, fue subdividido en tres grandes fases sucesivas: paleolítico inferior, medio y superior. Se inicia hace unos 3.000.000 años, esta fecha es solo tentativa y siempre discutida.

La forma de vida humana era nómada, vivían en pequeños grupos y las principales preocupaciones del hombre eran conseguir el alimento diario y defenderse de los peligros, como los que representaban los grandes animales. La subsistencia se lograba a partir de la caza y la recolección.

Por la caza se obtenían las carnes y por la recolección se reunían raíces, hojas y frutos. Inicialmente comía animales muerto, luego perfecciona la caza de animales, tales como trampas y emboscadas. No producían alimentos, solo lo recolectaban.

Aprendieron a dominar el fuego, y así fue posible cocer los alimentos, protegerse del frío, espantar a las fieras; pero, fundamentalmente, aprender a manejar la naturaleza, a servirse de ella.

Enterraban a los muertos, es decir, tenían el concepto de la vida espiritual.

Construían hachas de mano, puntas de flechas, raspadores,…y mas sobre el paleolítico superior, aparecen silbatos, lanzas, arpones, bastones, agujas de coser, punzones, lámparas. Usaban la grasa para mantener el fuego.

Golpeaba “piedra contra piedra” para cortarlas y moldearlas, y lógicamente su terminación era tosca y rústica.

Respecto al arte, comenzaron las primeras expresiones artísticas, dibujando animales, cuerpos humanos, plantas, armas, escenas de la vida diaria, etc. sobre paredes y techos de piedra en cuevas protegidas, el arte rupestre

 

 

NEOLÍTICO
(Piedra Nueva o Pulida)

Comienza aproximadamente en -12000 y podemos decir que las mas importantes transformaciones e inventos del hombre de la prehistoria, se ha dado en este período, y se la conoce como la “revolución neolítica”(-8000).

Logra domesticar los animales, como cabras, caballos, ovejas, asno, vaca y cerdo.

Aprende a sembrar y comienza con la práctica sistematizada de la agricultura. Sabe que debe almacenar granos para las épocas de escasez. Construye herramientas para sembrar y depósitos de granos, como los silos. Sembraba trigo, cebada, arveja, centeno, mijo y arroz.

El hombre abandona la vida nómada, para asentarse definitivamente el pequeños grupos inicialmente y luego en aldeas y ciudades, es decir, sale de las cavernas y construye viviendas.

Construyó viviendas sobre pilares en lagos para protegerse de los ataques de fieras o tribus enemigas. (palafitos). Construyó botes con troncos ahuecados.

Inició la vida en familia y comunidad, estrechando lazos de amistad.

Comenzó a moldear la cerámica y elaboró envases para granos y líquidos.

Llegó al apogeo de la técnica de construir elementos de piedras, ahora logra pulirla usando arena fina seca o húmeda. Aprendió a perforarla.

Construyó monumentos, como menhires, altares sagrados y dólmenes. Practicó un culto a la muerte.

Aprendió a tejer, logrando telas de lino y recipientes trenzados.

Inventó el ladrillo de adobe y paja secado al sol.

Perfeccionó todos los utensilios y armas del período anterior. Creó el arco y la flecha para cazar.

TABLA COMPARATIVA

LA EVOLUCIÓN DE LAS HERRAMIENTAS DE USO: Conocemos mucho acerca de sus herramientas, que se han conservado muy bien (según observamos en los museos), y podemos advertir cómo van perfeccionándose gradualmente en su proyecto y ejecución a lo largo de los tiempos prehistóricos.

Probablemente los primeros instrumentos fueron de madera, quizá con las partes que deben ser más resistentes endurecidas por la acción del fuego; pero, como es lógico, tales herramientas y armas de madera no se han conservado.

Las que conocemos son pedazos desmenuzados de pedernal. El trabajo que se daba a estos primeros instrumentos era tan imperfecto, que hoy día surge con frecuencia la duda de si, en algunos casos, se trata de productos de la industria humana c de fragmentos alterados por la naturaleza de forma más o menos caprichosa. Éste es el caso de los fragmentos de roca encontrados con frecuencia junto a algunos restos fósiles primitivos (Australopitécidos) y cuya importancia es muy grande, ya que su estudio permite conocer la época de la aparición de hombres “inteligentes”. Otros restos, ya tienen signos indudables de la acción humana, como las sencillas hachas de mano de la Edad Paleolítica, o primitiva edad de piedra.

La técnica de tallar y labrar el pedernal fue mejorando lentamente, de forma que al finalizar la Edad Paleolítica —hace unos 12.000 años— existía ya” una variedad de herramientas que constituía un equipo completo para la mayoría de las necesidades primarias. De esa época conocemos: líachas, cuchillos, rascadores y puntas de lanza y flecha.

Todas las herramientas de piedra de este período muestran un trabajo basto, producido por medio de golpes con otra piedra para que saltasen esquirlas del pedernal e ir dando así forma al instrumento. El pedernal no tiene una estructura cristalina tal que produzca roturas por planos o superficies predeterminadas al ser golpeado, sino que el plano de rotura tiene una forma más o menos esférica, lo cual facilita su talla, sobre todo para conseguir filos cortantes, que tenían siempre un perfil aserrado.

Esta característica, unida a su dureza, hizo que lo prefiriesen artesanos de la Edad de Piedra. En la evolución que experimentan estos instrumentos, se observa que la talla va siendo cada vez más fina, siendo más pequeño el tamaño de las esquirlas desprendidas y más numerosos los golpes.

En la edad siguiente, llamada Mesolítica, se hacen importantes las armas e instrumentos de hueso. El trabajo del hueso hizo posible la aparición de anzuelos para pescar (provistos de púas), y de arpones con varios ganchos que aseguraban la permanencia del arma en la herida. Los utensilios de piedra de este período se van haciendo cada vez más complicados y de confección más elegante. En esta época son ya evidentes las muestras de pulido y bruñido, lo que se conseguía probablemente frotando sobre arena húmeda.

Durante la edad siguiente, la Edad Neolítica (de hace unos 5.000 años), el pulido de la piedra se hace general. Las pruebas arqueológicas demuestran que en este período aparece por primera vez una agricultura incipiente.

Las primeras herramientas metálicas se encuentran a partir de la Edad de Bronce, hace unos 4.000 años. Unos 1.000 años más tarde aparece el uso del hierro, que sustituye al bronce, y que desde entonces se hace el metal de más importancia.

Al principio de la Edad del Bronce se inventó la rueda, y ya existían pequeños poblados o aldeas (rudimentos de organización social).

Todos estos datos se refieren a las armas y herramientas de piedra y de metal de nuestros antepasados, que son las que mejor se han conservado, pero ¿qué decir del resto de sus utensilios, de sus costumbres y modo de vida? Bastante de esto puede todavía conocerse por los restos arqueológicos, pero una forma interesante de informarse, es dirigirse a distintas tribus actuales.

Galaxias Grupo Local Grupo de galaxias mas cercanas Estrellas Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es “no”, puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios. Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años. Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado “grupo local”. Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

“La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.”

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para “ver” aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.

Distancias a las estrellas Mas cercanas Tamaños y Medidas Estrellas

DISTANCIA A LAS ESTRELLAS Y SU TÉCNICA DE MEDICIÓN

LAS DISTANCIAS DE LAS ESTRELLAS En comparación con la inmensidad del espacio, el sistema solar es un pequeñísimo y compacto conjunto de cuerpos celestes. Pero acostumbrados a considerar las distancias de nuestro propio planeta, creemos que el sistema solar es enorme.

Ya no nos sorprende cuando nos damos cuenta de que la distancia de la Tierra al Sol es casi 4.000 veces mayor que la longitud del ecuador terrestre, y que la distancia desde el Sol hasta Plutón equivale a unas 150.000 vueltas alrededor de nuestro planeta. Tales distancias son tan grandes y desproporcionadas con relación a nuestra experiencia diaria, que sólo consiguen confundirnos cuando intentamos expresarlas en kilómetros. Y cuando hablamos de distancias aun mayores, los números en sí resultan demasiado grandes para comprenderlos con facilidad.

Galaxias y estrellas del universo

Por esta razón los astrónomos han tenido que buscar otra unidad de longitud para utilizarla en lugar del kilómetro. Y la más útil que se ha encontrado hasta el momento ha sido la velocidad de la luz, que se desplaza a 300.000 Km./seg, y recorre la distancia del Sol a la Tierra en poco menos de ocho minutos y medio, y del Sol a Plutón en cinco horas y media. Por ello decimos que el Sol está a ocho y medio minutos-luz de la Tierra, y que Plutón se encuentra a cinco y media horas-luz del Sol.

Puesto que la distancia del Sol a Plutón es sólo el radio de la circunferencia del sistema solar, debemos doblar dicha distancia para expresar su diámetro —11 horas-luz—. Pero como muchos cometas se alejan todavía más que la propia órbita de Plutón, podemos decir que la totalidad del sistema solar ocupa por lo menos un espacio de unas 12 horas-luz.

Puesto que un viaje alrededor de la Tierra sólo equivale a un octavo de segundo-luz, podemos darnos cuenta de la inmensidad del sistema solar según nuestros patrones terrestres.

Y, sin embargo, sólo se trata de un pequeño punto en el espacio sideral. La estrella más próxima al Sol está situada no a segundos, minutos y horas-luz del mismo, sino a una distancia de cuatro y medio años-luz. Cuando recordamos que en un año hay casi 9.000 horas, nos damos cuenta de que el diámetro del sistema solar es muy pequeño en comparación con la distancia que nos separa de la estrella más próxima. Si expresamos ambas distancias en kilómetros, obtendremos 12.000 millones de kilómetros para el sistema solar y 40 billones de kilómetros para la estrella más próxima (que es precisamente la alfa de la constelación del Centauro, o a Centauri, visible sólo para los habitantes del hemisferio sur).

Al considerar las distancias de otras estrellas vemos que cuatro y medio años-luz están sólo “a la vuelta de la esquina”. Por ejemplo, de entre las estrellas más brillantes que observamos en el cielo, Sirio está a 9 años-luz y Vega a 26, años-luz; y aun éstas son vecinas próximas. Arturo se encuentra a 36 años-luz, Capella 345 años-luz y Aldebarán a 68 años-luz y todavía no podemos considerarlas lejanas.

Sólo cuando hablamos de estrellas como la Espiga y Antares, a 220 y 520 años-luz, respectivamente, estamos tratando de estrellas realmente lejanas. Sin embargo, no hemos empezado siquiera a agotar la lista de las estrellas brillantes.

Rigel, de la constelación de Orion, se encuentra a 900 años-luz. Esto quiere decir que la luz que de ella nos llegó anoche empezó su viaje hace 900 años. El universo estelar es, por lo tanto, mucho mayor de lo que podemos imaginar cuando casualmente dirigimos nuestra mirada hacia el cielo nocturno. Hemos visto que los planetas constituyen un compacto grupo que sistemáticamente se mueve alrededor del Sol. ¿ Y qué ocurre con las estrellas? ¿Es posible encontrar cierto sistema u organización dentro de ellas? ¿Cómo se mueven, exactamente? ¿Hasta dónde se extienden en el espacio?

Preguntas de este género, que han intrigado a los astrónomos durante miles de años, sólo han podido contestarse a partir del siglo pasado. Desde luego, los hombres que vivían en cavernas se dieron cuenta de que las estrellas parecen conservar sus posiciones relativas. Este hecho permitió a los hombres primitivos agrupar las estrellas según configuraciones que les recordaban vagamente a los legendarios héroes y heroínas o a los animales salvajes que conocían.

Pero estos grupos, o constelaciones, sólo presentan tales aspectos al ser vistos por un observador terrestre. No se trata de grupos de estrellas que estén realmente cerca unas de otras en el espacio; tan sólo parecen estarlo. Cuando los astrónomos descubrieron que las estrellas también se mueven y aprendieron a medir las distancias estelares, empezaron a reconocer cierta organización en el sistema de las estrellas.

LAS DIEZ ESTRELLAS MAS CERCANAS

Próxima Centauri Distancia: 4,2 AL
Rigel Kentaurus Distancia: 4,3 AL
Estrella de Barnard Distancia: 5,9 AL
Wolf 359 Distancia: 7,7 AL
Lalande 21185 Distancia: 8,26 AL
Luyten 726-8A y B Distancia: 8,73 AL
Sirio A y B Distancia: 8,6 AL
Ross 154 Distancia: 9,693 AL
Ross 248 Distancia: 10,32 AL
Epsilon Eridani Distancia: 10,5 AL

LA MEDICIÓN DE LAS DISTANCIAS:

Cuando las estrellas cuyas distancias queremos medir son las más próximas, se emplea un recurso de la Trigonometría que se llama paralaje. Pongamos un ejemplo práctico. Si nos encontramos en un campo y vemos a mediana distancia un poste de telégrafo, al balancear nuestra cabeza podremos ver cómo el poste “se mueve” contra el fondo del horizonte, que está mucho más lejos. Desde luego que nos resultaría más fácil medir la distancia que nos separa utilizando una cinta de medición, pero ¿y si entre nosotros y el poste hubiese un río caudaloso?

En ese caso podríamos aplicar un artificio que consiste en medir el segmento aparente que se forma en el horizonte cuando, al movernos, el palo se traslada sobre él, medir la distancia real entre los dos puntos que marcan los extremos de nuestro movimiento y, finalmente, tomar los ángulos que quedan determinados ente el poste y nuestras dos posiciones sucesivas.

Esto es precisamente lo que hacen los astrónomos. Para ellos, con mover un poco el cuerpo, como hacíamos nosotros en el campo, no es suficiente, porque no hay punto de comparación entre las magnitudes de uno y otro ejemplo. Se pensó primero en trasladarse a dos puntos alejados de la Tierra y, desde allí, efectuar observaciones sincronizadas, es decir, en el mismo momento, pero también estas dimensiones resultaron escasas.

Finalmente, se pensó que lo ideal sería aprovechar que nuestro planeta se mueve en torno al Sol. De esta forma, se podría realizar una observación en enero, por ejemplo, y otra en julio (medio año después) con lo que el “balanceo” de nuestra prueba inicial pasaría a ser de unos 304 millones.de kilómetros (304.000.000.000 metros). ¡Ahora las cosas cambian! Bueno … no tanto. A pesar de esta “trampa”, la lejanía de las estrellas es tal que el ángulo determinado por las dos posiciones extremas de la Tierra y la más próxima de ellas es de 1 segundo y medio (o sea el ángulo que se forma entre los extremos de una llave de valija y un punto distante a seis kilómetros de ella).

De todos modos, podemos quedarnos tranquilos, porque este valor, por pequeño que sea, puede ser perfectamente captado con los instrumentos de precisión con que cuenta nuestra sociedad actual. Se han efectuado inclusive paralajes de estrellas cuyo ángulo es inferior a la décima de segundo. La distancia de las estrellas más lejanas es mucho más difícil de determinar, ya que en ellas no se puede aplicar el método de paralajes trigonométricos.

Pero, todo tiene solución. Partamos de la base que la luminosidad de los cuerpos celestes disminuye en la medida que se encuentren más lejos. Estoes fácilmente demostrable: mayor luz dará un farol que está al lado nuestro, que otro igual ubicado a una cuadra de distancia.

Lo que nos resta hacer ahora es ver cómo podemos aplicar esto en el espacio sideral. Empecemos por aclarar que las estrellas no son “faroles iguales”, lo que nos complica unpoco las cosas, ya que debemos averiguar no sólo su luminosidad absoluta, sino también la aparente.

Entendemos por absoluta, toda la luz que da; y aparente, sólo la que llega a nosotros.

La aparente se mide con facilidad por intermedio de placas fotosensibles. Para la absoluta, en cambio, las cosas se hacen un poco más complicadas. Es necesario que descompongamos la luz que nos mandan por medio de un prisma. Obtendremos así un espectro, que no es otra cosa que la luz distribuida de acuerdo con sus colores componentes en una escala que va de! ultravioleta al infrarrojo. De este gráfico se puede inferir la luminosidad absoluta de un cuerpo a partir de su temperatura intrínseca.

Después -ya obtenidos los datos de luminosidad absoluta y relativa- no queda otra cosa que aplicar fórmulas constantes que nos dan la distancia desde la Tierra hasta la estrella.

 

esquema del paralaje de una estrella

esquema del paralaje de una estrella

Fuente Consultada:
Secretos del Cosmos Tomo 2 (Salvat)
Enciclopedia Ciencia Joven -Distancia a las Estrellas  – Fasc. N°12 Editorial Cuántica

Que es PayPal? Pagar Por Pay Pal Cobrar Por Paypal Comprar Vender

Sistema Que es PayPal
Pagar o Cobrar Por Pay Pal

QUE ES PAY PAL?:

PayPal es un sistema que permite a cualquier persona que tenga una dirección de e-mail poder enviar o recibir dinero online utilizando su tarjeta de crédito de manera totalmente segura.

Sobre este sistema: PayPal permite que cualquier negocio o consumidor con una dirección de e-mail envíe y reciba pagos online en forma segura y conveniente. Su red está constituida sobre la base de una infraestructura financiera de cuentas bancarias y tarjetas de crédito para crear una solución de pago global y en tiempo real.

El servicio de PayPal está especialmente diseñado para pequeños negocios, comerciantes online, individuos y cualquiera que no encuentre en los mecanismos de pago tradicionales la solución adecuada. Busca convertirse en el estándar global para pagos online, ofreciendo sus servicios a usuarios en 38 países, incluyendo a los Estados Unidos.

Cuenta con más de 17 millones de usuarios registrados, incluyendo más de 3 millones de cuentas comerciales. El tamaño de su red y el crecimiento en el nivel de aceptación de su producto, lo ha ayudado a convertirse en la red de pagos líder para sitios de subastas online. Además, PayPal ha ido incrementando su presencia en otros sitios de “e-commerce” (comercio a través del Internet). Negocios que no están online también han comenzado a recibir pagos online a través de PayPal. Los servicios que brinda, que permiten a los usuarios realizar pagos online sin cargo, pueden ser utilizados desde cualquier PC o teléfono celular habilitado para el uso de Internet.

PayPal es una compañía con oficinas corporativas en Mountain View, California, Estados Unidos. Obtuvo el premio SIIA Codie Awards a la “Mejor Solución de E-commerce” de 2002 y fue reconocida por PC Magazine como una de las “100 Mejores Websites”.

¿Es gratis registrarse electrónicamente en PayPal?

Sí. Crear una cuenta y enviar dinero utilizando una cuenta de PayPal es gratuito. PayPal sólo le cobra una modesta comisión a aquellos miembros Premier y Business -empresas- que reciben pagos.

¿Cómo me registro en PayPal?

Para registrarse debe ingresar en el sitio tenga presente que la única opción disponible actualmente es la versión en inglés: http://www.paypal.com

¿Existe PayPal en español?

No. La única opción disponible actualmente es la versión en inglés.

¿Cómo uso PayPal para enviar un pago?

Luego de registrarse para una cuenta de PayPal, lo único que necesita hacer es agregar su tarjeta de crédito e ir a “Send Money”. Allí tiene que ingresar la dirección de e-mail de la persona a la cual le está enviando el pago así como el monto de la operación.

¿Qué tan seguro es PayPal?

La seguridad de su información, transacción, y dinero es la más alta prioridad de PayPal. Su información confidencial es cifrada mientras se mueve de su computadora a las computadoras de PayPal. El protocolo de cifrado que PayPal usa es “Secure Sockets Layers” (SSL), el cual cifra información de hasta 128 dígitos binarios de largo (el más alto nivel disponible comercialmente).

La compañía PayPal está licenciada por el programa de privacidad TRUSTes, la cual es una organización independiente y no lucrativa que tiene como misión el crear confianza en el Internet mediante la promoción de prácticas justas.

¿Cuán privadas son las transacciones de PayPal?

PayPal se compromete a proteger la privacidad de sus usuarios. Cuando usted envía o solicita dinero a través de PayPal, la única información que ve el destinatario son su dirección de e-mail, la fecha de registro (“sign-up”) y si se ha confirmado alguna cuenta en otra institución financiera. Los destinatarios nunca verán su información financiera, como por ejemplo números de cuentas bancarias o de tarjetas de crédito.

¿Cuáles son las ventajas de comprar con PayPal?

Comprar con PayPal tiene muchas ventajas:

Permite pagar online con cualquier tarjeta de crédito. Es gratuito para enviar dinero. Recibe sus compras más rápido. Es seguro y privado.

¿Cuáles son los costos de comprar con PayPal?

El servicio es gratuito para el comprador.

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Primera Caminata Espacial Historia Exploracion Espacial Ed White

Primera Caminata Espacial
Historia Exploración Espacial

Edward White, nació en San Antonio, Texas  el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico. Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea. Ha registrado más de 3 000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial. En 1965 se convirtió en el primer astronauta americano en caminar por el espacio. White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio. Lo hizo en junio de 1965, tres meses después que Leonov. White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967. En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

El desarrollo cientifico y grandes inventos en el siglo XX Carrera Espacial

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta “transmutación” posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

Protocolo Para en Envio de Archivos Por Internet FTP Que es FTP?

Protocolo Para en Envío de Archivos
Por Internet FTP ¿Que es FTP?

 QUE ES FPT?:

Qué es FTP Protocolo de Transferencia de Archivos?

FTP son las siglas de File Transfer Protocol, es decir, Protocolo de Transferencia de Archivos. Es un sistema que permite enviar y recibir ficheros entre computadores a través de la red Internet.

Con el fin de facilitar la creación de tu web, los servidores comerciales disponen de un sistema de FTP, mediante el que puedes enviar rápidamente y de una sola vez todos los ficheros que desees publicar en tu página u otros ficheros: imágenes, archivos de audio, etc.

Se necesita un programa de FTP. En cualquier sitio de descarga de archivos comercial se dispone de varios software FTP. Se debe configurar el programa para acceder a la cuenta. Éstos son los datos que se necesita:

    • Servidor, IP, server, host: ftp.servidor.com

  • Puerto: 21

  • Usuario, user: tu nombre de usuario o Loginname

  • Clave, password: Tu clave de acceso con ese servidor

 

Una vez configurado, ejecuta la opción de conectar. Una vez conectado, se pueden ver las carpetas y ficheros de tu disco duro en un lado, y las carpetas y ficheros de tu sitio web en el servidor. Ahora solo se tiene que seleccionar uno o varios ficheros y arrastrarlos a la carpeta o directorio del sitio web en cuestión: los archivos se van transfiriendo uno a uno y puede observarse el proceso.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante lo tiene muy fácil para capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.

FTP: software FileZilla

PARA SABER MAS…
Los servidores FTP
El protocolo FTP (file Tmnsfer Protoco/) permite transferir archivos vía Internet Aunque el correo electrónico, por ejemplo, es un servicio que también permite intercambiar archivos, no es la herramienta más adecuada, sobre todo cuando queremos transmitir o enviar archivos de gran tamaño.

El servicio FTP también funciona con la estructura cliente-servidor, Los archivos se almacenan en el servidor y cada cliente solicita o envía los archivos manipulando el servidor como si de una unidad local se tratase: se pueden copiar archivos, carpetas, cambiar el nombre de los mismos en el servidor, etc. Generalmente, un archivo del tipo /ndex.txt o Contenidos.txt muestra información sobre el tipo de archivos que se encuentran en una carpeta.

En ocasiones, solo podemos manipular los archivos si tenemos permiso (habitualmente es necesario un nombre de usuario y una clave para acceder a determinados servidores FTP), pero existen servidores FTP de dominio público; no es necesario estar registrado o darse de alta para acceder a sus archivos: son los servidores FTP anónimos (anón/mus). En muchos de estos servidores el acceso es, sin embargo, restringido: no podemos borrar archivos, cambiarlos de nombre, etc. Así se consigue mantener en orden el servidor y evitar que alguien, intencionadamente o por error, borre algún archivo o carpeta. Podemos decir que estos servidores FTP son «de solo lectura».

Muchas universidades disponen de servidores FTP donde colocan todos aquellos archivos de dominio público para que el acceso a los mismos sea ágil. Además, en un servidor FTP no se necesita una persona que realice el envío solicitado por un cliente; es e! propio cliente el que gestiona el intercambio de archivos desde su computadora.

La dirección de Internet de un servidor FTP tiene un formato parecido al siguiente:

ftp://ftf.servidor_de_archivos_fTp.com

Existen aplicaciones específicas para gestionar los servidores P: son los programas cliente FTP. Disponen de dos ventanas: (ver imagen arriba)

Una ventana muestra el contenido del servidor FTP.
En ella podemos ver, por ejemplo, la estructura de carpetas.

Otra ventana muestra el contenido de las unidades
locales (disco duro, etc.). Para copiar un archivo desde el servidor hasta nuestro disco duro, por ejemplo, basta con arrastrar el mismo desde una ventana a la otra o pulsar algún botón.

También se puede acceder a los servidores FTP vía web, usando un programa navegador. En este caso basta con introducir la dirección (URL correspondiente al servidor FTP (o acceder a las páginas almacenadas si el servidor FTP se encuentra entre ellas).

En el área de trabajo del navegador aparecerá entonces la estructura de carpetas del servidor, y el aspecto de la barra de herramientas y de la barra de menús variará ligeramente para mostrar las opciones comunes en el manejo de archivos en los servidores FTP: copiar, pegar, cambiar nombre, crear carpetas, ordenar los archivos por el nombre, la fecha, etc.

Gestión de los archivos de un servidor FTP vía web. En este caso, el propio navegador permite visualizar los archivos almacenados en el servidor y ofrece herramientas para copiarlos, cambiar el nombre, etc. Por supuesto, siempre y cuando tengamos los permisos necesarios.

En la ilustración aparecen los archivos correspondientes a una web almacenada en un servidor. Para actualizar la web, basta con copiar los archivos desde nuestro disco duro al servidor FTP, sustituyendo los anteriores o añadiendo los archivos nuevos correspondientes.

Que es SMPT , POP y MIME Significados Protocolos Comunicación

Que es SMPT , POP y MIME Significados Protocolos Comunicación

QUE ES POP, SMPT Y MIME?:

¿Qué significan los términos  POP, SMTP y MIME?

Un protocolo de e-mail es una metodología predeterminada que permite a los servidores de correo y a los clientes comunicarse con el objeto de enviar y recibir mensajes.

Estos protocolos son la razón por la cual un mensaje puede enviarse desde cualquier computadora con cualquier sistema operativo a otra totalmente distinta y, aun así, recibir correctamente el mensaje.

Cuando se habla de corneo electrónico, suelen nombrarse cuatro protocolos: Simple Mail Transfer Protocol (SMTP),Post Office Protocol (POP), Internet Mail Access Protocol(IM.AP) y Multipurpose Internet Mail Extensions (MIME). En el futuro, nos referiremos a ellos a través de sus respectivos acrónimos.

El SMTP es el abuelo de los protocolos de correo electrónico. Es un protocolo muy básico que permite a cualquier servidor de correo contactarse con otro servidor de correo y transferir mensajes de un equipo a otro, a través de unos cuantos comandos.

El POP es un protocolo más reciente y define un mecanismo eficiente para que los clientes puedan contactarse con el servidor central y transferir los mensajes a sus equipos, manteniendo el control de la información y reduciendo el tiempo de conexión. Además, permite leer mensajes offline, es decir, después de haber cerrado la conexión con el servidor de correo, lo que no es posible a través de SMTP.

El protocolo MIME define una metodología para codificar mensajes con contenido más complejo que el texto comun. El MIME es lo que permite adjuntar archivos de imágenes, audio y otros a un correo electrónico. El IMAP surge como el último de los protocolos y está pensado para aquellos usuarios que poseen más de una computadora y desean bajar sus mensajes a distintos equipos sin perder tiempo o información.

En el caso de un ejecutivo que recibe y envía mensajes desde una máquina de escritorio y desde una laptop, lo más probable es que utilice alguna aplicación que soporte IMAP, lo que le permitirá mantener sus equipos sincronizados y sus mensajes organizados eficientemente.