Informática. Breve repaso histórico

Computar es una tarea que el ser humano ha realizado de forma inconsciente desde los anales de la historia. Contar, y en general calcular, es imprescindible para relacionarse con el entorno. Determinar si el número de contrincantes en una lucha es excesivo o estimar la distancia aproximada a la presa antes de lanzar el arma lleva asociados cálculos abstractos cuya representación no tiene por qué ser numérica ni exacta, pero que obliga a una cierta tarea de cómputo y reflexión.

Desde el principio de su existencia, el ser humano ha inventado artilugios que le han facilitado el trabajo o han mejorado la eficacia de su labor. El arado es uno de los más antiguos, además de armas de filos cortantes para cazar, cortar, desmenuzar, etc. Con el transcurso de la historia y la creciente proliferación de inventos, comenzó a fraguarse un deseo de «automatización», esto es, de construcción de ingenios que desarrollaran solos el trabajo con una mínima o nula participación del hombre.

El genial griego Arquímedes, que vivió en el siglo iii a. C., concibió mecanismos dotados de cierto automatismo utilizando poleas, palancas y planos inclinados. En el mismo siglo Ctesibio, considerado por la posteridad como el creador de la primitiva automática, utilizó un flotador como elemento regulador. A su vez, Herón de Alejandría diseñó autómatas capaces de aprovechar la energía procedente del vapor de agua para realizar movimientos, como abrir automáticamente las puertas de un templo, y usó el sistema de regulación de Ctesibio para desarrollar invenciones tan sorprendentes como un dispensador de vino.

Los chinos y egipcios antiguos destacaron asimismo por sus ingenios para medir el tiempo. Ya en la Edad Media, estos mecanismos se mejoraron añadiendo levas, engranajes y otros artificios que trabajaban aprovechando la energía eólica procedente del viento o la hidráulica de los torrentes y los ríos. El Renacimiento europeo constituyó una etapa pródiga en avances técnicos en la que destacaron las múltiples aportaciones de los maestros relojeros. Especial mención merece la figura de Leonardo da Vinci, cuyo catálogo de inventos aún sigue sorprendiendo a quienes lo consultan.

Autómata de Pierre Jacquete-Droz. Las creaciones de este inventor francés están consideradas como los primeros robots de la historia.

En el siglo xviii, el interés por los autómatas aumentó hasta el punto de que se concibieron como pequeños juguetes o caprichos para el entretenimiento de la sociedad acomodada. Algunos ingenios muy curiosos, como el escribano de Pierre Jacquete-Droz o el pato de Vaucanson, se consideran los primeros robots de la historia.

Nacimiento y evolución de la informática

Clasificar y dividir los acontecimientos históricos no resulta una labor sencilla porque la evolución es, en general, un proceso continuo. Probablemente cada uno de los protagonistas no era consciente en su momento de la repercusión que sus investigaciones, artículos o diseños tendría en el futuro.

Al analizar y estudiar el pasado de la computación o informática, entendida como la disciplina científica y tecnológica que permite el tratamiento automático de los datos con ayuda de computadoras, se abordan aquellos acontecimientos, descubrimientos, invenciones y estudios más relevantes para bosquejar un orden cronológico. Después del repaso histórico remoto, que se remonta a la Edad Moderna europea, la historia fáctica de la informática puede subdividirse en una sucesión de «generaciones» de sistema de computación.

Los ábacos funcionaron en la antigüedad como «calculadoras» primitivas.

Las primeras civilizaciones emplearon probablemente los dedos de la mano como primera herramienta para contar. El uso de instrumentos para facilitar operaciones de cálculo comenzó con las culturas mesopotámicas mediante ábacos, cuyo uso se extendió a múltiples civilizaciones.

Ya en tiempos modernos cabe destacar la pascalina, una máquina diseñada y fabricada por Blaise Pascal en el siglo xvii y capaz de realizar mecánicamente sumas y restas de hasta ocho cifras. Posteriormente, Gottfried von Leibniz mejoró este ingenio incorporándole la capacidad de multiplicar. En 1777, Charles Mahon construyó una máquina aritmética sorprendente que sería la base de los diseños futuros más relevantes. No obstante, la aportación más novedosa fue tal vez una máquina lógica conocida por el nombre de «demostrador de Stanhope», que podía resolver proposiciones lógicas sencillas mediante un método similar a los diagramas de Venn.

La pascalina, una máquina diseñada por Blaise Pascal, capaz de realizar operaciones sencillas de hastaocho dígitos.

El ingeniero francés Vaucanson, inventor de autómatas, introdujo en 1745 el concepto de programación en el diseño de un telar que posteriormente sería perfeccionado por Joseph-Marie Jacquard. En esta modificación se incorporó, entre otras mejoras, un sistema de programación basado en tarjetas perforadas que más tarde se aplicaría como soporte para los programas de las computadoras electromecánicas y las primeras electrónicas.

En el siglo xix, el británico Charles Babbage diseñó un artilugio, llamado máquina de diferencias, capaz de resolver ecuaciones polinómicas por medio de diferencias aritméticas. En 1833 concibió la máquina analítica, precursora estructuralmente de los conceptos básicos de la arquitectura de computadoras. Ambos diseños no pudieron llevarse a la práctica por las limitaciones técnicas de la época y a la imposibilidad de fabricar con la precisión necesaria los distintos engranajes y piezas imprescindibles.

En 1890, el estadounidense Herman Hollerith, empleado en la oficina de censos y ante la necesidad de diseñar un sistema que permitiera censar a la población de su país en un plazo razonable (en aquel tiempo, la labor llevaba unos diez años), fabricó un sistema basado en tarjetas perforadas que permitió llevar a cabo el trabajo en menos de tres años. En 1896 fundó la empresa Tabulating Machine Company, que en 1924 cambió de nombre para llamarse International Business Machines (ibm). Esta empresa sería esencial para la historia de la computación y la tecnología.

Modelo de computadora de primera generación producida por IBM en el año 1946. Las primeras computadoras fueron de gran tamaño, y sólo alcanzaron su forma actual gracias a la evolución de la microelectrónica.

La primera computadora electromecánica binaria programable fue construida por Konrad Zuse en 1940 con el nombre de Z2. Cuatro años más tarde, ibm y la Universidad de Harvard desarrollaron la Mark I, capaz de realizar multitud de operaciones aunque con unas dimensiones colosales en comparación con las del presente. La máquina medía 2,40 m de altura y 15 m de longitud y pesaba cinco toneladas. Desde ese instante se aceleraron los inventos relacionados con la informática, en un periodo de rápido florecimiento de la electrónica y la computación. La historia posterior se escribe aludiendo a la rápida sucesión de generaciones de computadoras.

Primera generación: válvulas de vacío

La primera generación de la informática, fechada entre 1938 y 1947 aproximadamente, se caracterizó por el empleo de relés y válvulas de vacío en equipos de gran tamaño y alto consumo energético. Su capacidad en comparación con la actual era mínima y no existía aún el concepto de sistema operativo. La única forma de programación que admitían las máquinas automáticas fabricadas se introducía mediante el uso de códigos binarios denominados lenguaje máquina.

La primera computadora electrónica fue diseñada por el físico John Atanasoff entre 1933 y 1942 para resolver sistemas de ecuaciones lineales. El prototipo, bautizado con el nombre abc (Atanasoff-Berry computer), fue desarrollado junto a Clifford Berry en los laboratorios de la Universidad del Estado de Iowa. Sin embargo, el primer modelo de propósito general propiamente dicho, a menudo considerado la primera computadora de la historia, fue el ENIAC (Electronic Numerical Integrator and Computer) diseñado y fabricado en la Universidad de Pensilvania en 1946 por Prosper Eckert y John Williams Mauchly.

El ENIAC (1946), a pesar de su enorme tamaño, está considerada como la primera computadora de la historia.

Las características físicas del ENIAC demuestran, vistas hoy, hasta qué punto ha avanzado la tecnología. La máquina pesaba unas treinta toneladas y utilizaba 18.000 válvulas de vacío. Sin embargo, era notablemente más rápida que las computadoras electromecánicas del momento y podía programarse mediante el ajuste de interruptores.

Como resultado de los enormes inconvenientes que suponía la programación manual de estas rudimentarias computadoras, en 1946 John von Neumann propuso, al frente de un equipo de investigadores, que los datos y los programas se almacenaran en un dispositivo intermedio denominado memoria. Las ideas recogidas en sus trabajos auspiciaron un importante cambio en los sistemas informáticos, que pasaron a emplear esta arquitectura denominada Von Neumann.

La primera máquina diseñada según el modelo propuesto se bautizó como edvac (Electronic Discrete Variable Computer) y fue desarrollada en 1949 en la Universidad de Cambridge por Maurice Wilkes. Tres años después se diseñó el ias, considerado el prototipo de las máquinas siguientes porque incorporaba conceptos tan actuales como la memoria principal para almacenar datos y programas, la unidad aritmético-lógica para realizar operaciones en binario, la unidad de control para ejecutar cada una de las instrucciones y la unidad de entrada-salida para comunicarse con el exterior.

Comercialmente, esta primera generación de computadoras tuvo como protagonistas a empresas como Sperry, ibm y Eckert-Mauchly Computer Corporation. La primera máquina comercial fue la UNIVAC i fabricada por Sperry, a la que le siguieron UNIVAC ii y UNIVAC 1103, todas ellas diseñadas para llevar a cabo complejos cálculos científicos. ibm desarrolló la serie 700/7000, orientada inicialmente hacia el cálculo científico, pero redefinida después hacia el procesamiento de grandes cantidades de datos. Se puede considerar, por tanto, que aquélla fue la primera computadora dirigida hacia el sector de los negocios.

La computadora EDVAC (1949) contemplaba ya el uso de un «espacio intermedio» o memoria como forma de almacenar los datos.

Segunda generación: el transistor

En 1947, los científicos John Bardeen, Walter Brattain y William Shockley de los Laboratorios Bell de la compañía att, inventaron el dispositivo que revolucionó el mundo de la electrónica: el transistor. Las contribuciones de estos científicos fueron reconocidas con el Premio Nobel de física de 1956.

El transistor es un dispositivo formado por tres capas de material semiconductor. Su diseño presenta dos comportamientos muy interesantes, ya que por un lado actúa como un amplificador de corriente y, por otro, como un interruptor controlado por tensión. Esta segunda aplicación constituye la gran aportación al mundo de las computadoras electrónicas. Las grandes ventajas de los transistores frente a las válvulas de vacío residen en su reducido volumen, su bajo precio y su menor consumo de energía.

La primera computadora con tecnología de transistores se fabricó en 1954 en los propios laboratorios Bell y recibió el nombre de TRADIC. En 1957, la Digital Equipment Corporation (dec) presentó el pdp 1. Cinco años después, la Universidad de Manchester produjo la computadora atlas, cuyas características más singulares eran el empleo de un disco magnético como sistema de almacenamiento y la implementación del concepto de interrupción de entrada-salida. ibm prosiguió con la serie 700/7000, aumentando el rendimiento de cada modelo e incorporando novedades destacables como el concepto de canal de datos, entendido como un sistema independiente responsable de la entrada-salida y que apareció en el ibm 7094.

La evolución de esta segunda hornada de computadoras corrió en paralelo con el surgimiento de los primeros lenguajes de programación de alto nivel, cuyo léxico y sintaxis se acercan más al lenguaje natural que al código máquina. Como consecuencia directa de todo ello aparecieron los primeros procesadores del lenguaje, que traducían un programa escrito en un lenguaje de alto nivel a código máquina: los compiladores.

En 1957, John Backus desarrolló el primer compilador de FORTRAN, un lenguaje de alto nivel. Un año más tarde apareció el lenguaje ALGOL de la mano del propio John Backus y varios colaboradores, además del LISP, propuesto por John McCarthy como lenguaje de aplicación en el campo de la inteligencia artificial. Esta disciplina tiene como fin último el desarrollo de artilugios «inteligentes», capaces de aprender de la experiencia y de actuar en consonancia con su aprendizaje dinámico. El estadounidense Alan Turing, con un famoso test que lleva su nombre, sentó las bases teóricas de esta naciente disciplina.

Como puede observarse, esta segunda etapa estuvo caracterizada no sólo por el avance revolucionario del transistor sino también por la enorme cantidad de aportaciones teóricas que aún siguen vigentes. Los primeros postulados de la inteligencia artificial y de la algorítmica encontraron numerosas vías de aplicación práctica que se extienden hasta la actualidad, por ejemplo, en el cálculo de la ruta óptima en un navegador gps (algoritmo de Dijkstra).

A partir de la década de 1950 hubo diversas aportaciones teóricas que siguen vigentes hoy en día. En la imagen, un dispositivo GPS, basado en el algoritmo de Dijkstra (1959).

Tercera generación: circuitos integrados

La invención de los circuitos integrados, unos dispositivos electrónicos dotados de numerosos elementos miniaturizados sobre una pastilla o chip de silicio, centraron los avances de la denominada tercera generación de computadoras iniciada hacia el año 1964. Cinco años antes, Jack Kilby había presentado el primer circuito integrado de la historia. Se trataba de una pequeña pastilla de silicio que incorporaba transistores y resistencias en su interior. La aparición de este dispositivo supuso una nueva revolución y un impulso imparable hacia un incremento progresivo en la escala de integración de componentes electrónicos.

Con el circuito integrado, las empresas de electrónica e informática pudieron desarrollar máquinas cada vez más potentes, pequeñas y rápidas, como las SOLOMON de Westinghouse Corp. y la ILLIAC iv, patrocinada por el Ministerio de Defensa de los Estados Unidos, la Universidad de Illinois y la empresa Burroughs. En la fecha clave de 1964, de nuevo ibm revolucionó el mercado con un concepto novedoso denominado familia de computadoras, que encerraba una idea muy importante de cara al desarrollo futuro de la informática.

Una familia de computadoras no es sino un conjunto de equipos compatibles entre sí, cada uno de los cuales representa una evolución tecnológica de los anteriores aunque comparte con ellos una misma arquitectura básica. De este modo, los programas desarrollados para unos miembros de la familia son válidos para los restantes. El sistema 360 fue la primera familia de la historia, el primer conjunto de máquinas automáticas dotadas del concepto de la compatibilidad. La tecnología utilizada incorporaba multitud de novedades, como interrupciones con prioridad, acceso directo a memoria de las unidades de entrada-salida (dma), memoria protegida, antememoria (caché) y microprogramación.

En el campo de la supercomputación, o fabricación de computadoras de gran potencia y dimensiones, la empresa Control Data desarrolló en 1964 los modelos cdc 6600 y cdc 7600. Ambos equipos superaban ampliamente la capacidad de los de ibm de la época. En 1972, Seymour Cray fundó la compañía Cray Research, que comenzó a diseñar y fabricar exclusivamente supercomputadores. Vieron entonces la luz Cray-1 y Cray-2, unos modelos muy influyentes para el futuro.

Modelo de Cray-1, supercomputadora diseñada en la década de 1970 por la compañía Cray Research.

Otro sistema relevante de la tercera generación de la informática fue el pdp 8 de DEC, la primera minicomputadora. Recibió tal nombre porque ocupaba un espacio reducido en comparación con las computadoras del momento y su potencia de consumo era muy inferior. Estas propiedades, junto con su precio reducido, permitieron que los laboratorios y las pequeñas empresas tuvieran capacidad económica suficiente para adquirir uno de estos sistemas.

Tecnológicamente, destacaron también las aportaciones introducidas por los conceptos de segmentación y paralelismo, que dividían las tareas en fragmentos modulares. La ejecución simultánea de estos fragmentos en distintos circuitos de las máquinas y la reunión coordinada de sus resultados permitía acelerar la resolución de los procesos y multiplicar la potencia de las máquinas.

También aparecieron entonces los llamados sistemas operativos multiproceso y multiusuario. Estos sistemas operativos, programas de software especializados en el control del funcionamiento de las propias computadoras, alcanzaron con el mvs de ibm y el vms de dec cimas de potencia y versatilidad desconocidas. En esta generación se idearon también lenguajes de programación más simples y poderosos, como basic y apl, así como conceptos como la programación estructurada y la modularidad incorporada como fundamento del lenguaje Pascal, entre otros.

Cuarta generación: los microprocesadores

El desarrollo de las memorias implementadas con circuitos semiconductores, núcleo de una nueva revolución en la informática, se inició en 1970 merced al trabajo de la empresa estadounidense Fairchild Semiconductor, que fabricó una memoria de 256 bits en un momento en el que los sistemas de almacenamiento eran núcleos de ferrita. Conjuntamente con este adelanto, el avance tecnológico permitió aumentar la capacidad de integración hasta que se logró implementar una unidad central de proceso (cpu), el corazón de la computadora, en un sólo circuito integrado: había nacido el microprocesador.

En 1971 la compañía Intel, fundada escasos años antes, desarrolló el 4004, su primer microprocesador. Esta empresa se convertiría en la principal del mundo en fabricación de estos dispositivos, con un creciente nivel de integración y de potencia. Así, en 1974, se lanzó el 8080, que duplicó hasta alcanzar los 8 bits el bus de datos. En la competencia, Motorola impulsó su propia contribución, la familia 68000. Posteriormente aparecerían el 8086 de 16 bits y el 80386 de 32 bits. Esta cuarta generación se caracterizó igualmente por la extensión de las computadoras al ámbito doméstico, merced a la venta de microcomputadoras y, sobre todo, del concepto de pc (Personal Computer, o computadora personal) popularizado por ibm.

El primer pc fue el Kenbak 1 fabricado en 1971 por John Blankenbaker. Disponía de 256 octetos (bytes) de memoria fija y se programaba mediante pequeños interruptores. Más adelante se presentó el Altair 8800, fabricado porMicro Instrumentation and Telemetry Systems (mits). Esta máquina modesta llevaba el germen de una verdadera revolución: un lenguaje de programación llamado basic, que fue proporcionado por una empresa recién fundada por dos jóvenes talentos: Paul Allen y Bill Gates. Aquella pequeña empresa se llamaba Microsoft Corporation.

Bill Gates (en la imagen) y Paul Allen, fundadores de Microsoft, revolucionaron el mundo de la informática gracias al desarrollo del lenguaje de programación,BASIC.

En 1975 salió al mercado la primera versión de cp/m, un sistema operativo de Digital Research Inc. para computadoras basadas en los microprocesadores 8080 y z80. Este sistema operativo sirvió probablemente de inspiración del archiconocido dos adquirido por Microsoft a una tercera empresa y posteriormente licenciado en 1981 a ibm para los equipos pc.

El concepto de pc encerraba una idea clave para el exitoso futuro tanto de ibm como de Microsoft y sus sistemas: la compatibilidad. La arquitectura de los ibm-pc, dotados del sistema operativo suministrado por Microsoft, era abierta, esto es, admitía su uso en cualquier tipo de computadora «compatible». Esta compatibilidad alentó a los usuarios a adquirir un sistema que les permitía intercambiar datos y archivos sin temor a que no pudieran ser entendidos por máquinas que no eran la suya propia.

En esta misma época surgieron varios modelos de computadoras personales que lanzaron a sus empresas propietarias a una carrera de espectaculares éxitos en los negocios. Destacó particularmente la plataforma Apple ii, diseñada y fabricada por Steve Woznizk y Steve Jobs.

A partir de 1980, la informática irrumpió definitivamente en los hogares. Máquinas como los Sinclair zx-80 y zx-81 y la Commodore vic-20 sirvieron de avanzadilla en este proceso. Sin embargo, la invasión doméstica de las microcomputadoras se produjo con la llegada en 1982 del zx Spectrum, que incorporaba un microprocesador z80 de la empresa Zilog.

Dos años más tarde, con la misma máquina pero añadiendo monitor y unidad de casete incorporada, otra empresa británica fundada por Alan Sugar puso en el mercado el Amstrad cpc464, al que le seguirían modelos como el 472, el 664 y el 6128, los dos últimos con unidad de disco de 3 pulgadas. Paralelamente se presentaron los Commodore 64 y 128 y los msx, que eran compatibles entre sí, aunque fabricados por diferentes empresas, con un propósito muy claro: crear un estándar o norma común.

Fue en esta etapa en la que se presentó la primera computadora ibm-pc, que data de 1981. La clave de su éxito fue su concepción como un proyecto de sistema abierto en el que los componentes hardware y software que lo formaban procedían de los mejores fabricantes. El primer ibm-pc incorporaba un microprocesador Intel 8088 y, como sistema operativo, una licencia adquirida a Microsoft del sistema operativo dos.

Esta manera de suministrar el sistema operativo a través de una licencia y no como una adquisición resultó de importancia capital, ya que posteriormente Microsoft licenció a otros fabricantes su mismo sistema. Estos fabricantes produjeron computadoras «clónicas» del pc en marcas compatibles que impulsaron un mayor desarrollo en el mercado. El avance tecnológico se centró en la investigación sobre microprocesadores de Intel que dieron paso a nuevos modelos (xt, at, ps/2).

Los Macintosh de Apple fueron los primeros PC que incorporaban una interfaz gráfica, sistema que se popularizaría en los siguientes años.

Otro acontecimiento que impulsó y popularizó definitivamente la computadora como elemento cotidiano fue la presentación del Apple Macintosh, puesto a la venta desde 1984 y primer pc cuyo sistema operativo incluía una interfaz gráfica de usuario muy intuitiva y fácil de utilizar. Posteriormente, Microsoft lanzó en 1990 la evolución de su propia interfaz gráfica para pc con el nombre de Windows 3.0. Esta interfaz marcó un fin de tendencia, que llevó al progresivo abandono de los sistemas operativos de tipo línea, como ms/dos, en favor de los dotados de comunicación visual o gráfica con el usuario. Era el momento de Microsoft Windows.

Avances recientes

Resulta complejo determinar si actualmente el mundo de la informática y las computadoras continúa en la cuarta generación o se han producido los acontecimientos necesarios como para considerar el surgimiento de una nueva. En general, numerosos indicadores apuntan hacia la idea del cambio, aunque sería preciso un análisis más detenido y con distancia temporal para responder a la pregunta de si existe una quinta generación de computadoras.

A mediados de los ochenta se abandonaron paulatinamente los sistemas operativos en línea por interfaces más visuales y fáciles de manejar para el usuario. Esto facilitó la popularización de las computadoras.

A mediados de los ochenta se abandonaron paulatinamente los sistemas operativos en línea por interfaces más visuales y fáciles de manejar para el usuario. Esto facilitó la popularización de las computadoras.

Con independencia de esta reflexión, la constante miniaturización de los dispositivos ha permitido desarrollar equipos portátiles cada vez más ligeros y potentes. El desarrollo de las telecomunicaciones ha incorporado infinidad de nuevas prestaciones, hasta llegar a la telefonía móvil y hacer de los terminales telefónicos minúsculas computadoras.

Las arquitecturas de los microprocesadores aumentan incesantemente en complejidad y potencia, con nuevas técnicas de segmentación que descomponen las instrucciones máquina en unidades más pequeñas que se ejecutan simultáneamente en una secuencia lineal. A ello se añaden técnicas de paralelización, con múltiples líneas de ejecución concurrentes. Las computadoras superescalares y vectoriales y las redes distribuidas de sistemas cooperativos representan algunas de las tendencias de la computación avanzada.

Por otra parte, la robótica, el desarrollo de la inteligencia artificial y las investigaciones en nanotecnología representan un aspecto vanguardista de la investigación asociada a la electrónica, la computación y las telecomunicaciones. Además de la creciente reducción de escala de los dispositivos y las mejoras tecnológicas físicas, los últimos años del siglo xx y los primeros del siglo xxi se han caracterizado por la interconexión.

Hoy día, las computadoras se hallan interconectadas, bien dentro de áreas locales restringidas a entornos empresariales o similares (redes lan), bien en otras extensas que cubren zonas más amplias e incluso han llegado a ser universales a través de la red telefónica o la comunicación vía satélite. Internet, con sus múltiples servicios y sistemas, es el paradigma de esta etapa de intercomunicación universal.