Bueno, son muchas las personas que hoy en día usamos un ordenador
u otro dispositivo de comunicación, sin embargo, pocos saben cómo empezó todo
este mundo, incluso yo desconocía hasta hace un año o dos cómo estaban
estructurados los ordenadores y de dónde partió todo, como si fuese una cortina
de humo. Por esa razón he decidido crear la entrada, para que gente curiosa
pueda comprender mejor este enorme paradigma.
La historia de la informática comenzó desde que surgió la
necesidad de contar, así es, de hacer cálculos, y el ser humano decidió empezar
con sus propias manos, como los niños cuando aprenden a contar; más tarde
llegaron las piedras u otros objetos pequeños como las manzanas y las peras; y
finalmente apareció el ábaco, el
cual le permitía por ejemplo llevar la cuenta de su ganado o cositas así,
siendo el primer instrumento de cálculo.
Muchos siglos adelante, exactamente en el año 1642, surgió el
objeto denominado "La Pascalina", diseñada y creada por Blaise Pascal
a los 18 años de edad con la intención de ayudar a su padre, el cual recaudaba
impuestos. El objeto tenía aspecto de caja de zapatos, y contaba con unas
ruedas dentadas que eran giradas mediante una pequeña manivela. Cuando una de
estas ruedas alcanzaba la vuelta completa, movía la siguiente de forma que
pudiese representar el sistema decimal de numeración, avanzando esta última un
nivel. Cada rueda contaba con el intervalo de niveles comprendido entre el cero
y el nueve, siendo un total de ocho ruedas: seis para números enteros y dos más
para los decimales. Para sumar por ejemplo solo bastaba con girar una rueda una
vez mediante la manivela.
Posteriormente, en 1700, el matemático y político Gottfried
Wilhelm Leibniz inventó la máquina multiplicadora, la cual permitía ya realizar
operaciones más veloces (hay que recordar que una multiplicación equivale a
determinada cantidad de sumas, al igual que una división a una cantidad de
restas).
A finales del siglo XVIII, con el auge
de la industria textil, se diseñaron máquinas para agilizar y automatizar el
proceso y reducir los costes. Fue Basile Bouchon quien creó una tarjeta
perforada para “programar” el diseño de los tejidos. Y sería a comienzos del siglo
XIX cuando Charles Babbage construye la máquina diferencial con el propósito de calcular
polinomios, una máquina programable mediante tarjetas perforadas.
Pero la cosa no quedó ahí, sino que en
1854 fue George Boole quien ideó la lógica booleana, la cual es muy simple:
AND: 0 + 0 = 0
0
+ 1 = 0
1
+ 0 = 0
1
+ 1 = 1
OR: 0
+ 0 = 0
0
+ 1 = 1
1
+ 0 = 1
1
+ 1 = 1
NOT: 0 = 1
1
= 0
Pero, traducida esta lógica a nuestro
idioma, ¿qué significa? Muy sencillo, la expresión AND equivale al “y”, es
decir, si yo le digo a alguien “Dame un billete de 50€ Y un billete de 100€”,
me tendrá que dar ambos. La lógica del OR equivale al “ó”, por ejemplo: “Dame
un billete de 50€ ó uno de 100€”, obviamente, esa persona me dará el de 50€. Y
la lógica NOT es la negada, es decir, se invierten los valores de 0 y 1.
0 y 1 son los bits, cero es ausencia de
información, y 1 es lo contrario. Este concepto queda más claro a la hora de
programar.
Más adelante, Thomas Edison patentó la
conocida Válvula de vacío. Componente electrónico empleado para amplificar,
conmutar o modificar una señal eléctrica, y sirvió para el desarrollo de la
electrónica durante el siglo XX.
En 1879 Herman Hollerith es contratado
para realizar el censo norteamericano, y para ello, diseñó la máquina
tabuladora, la cual funcionaba de forma muy lenta (¡tardó dos años en completar
el censo!) y necesitaba de tarjetas perforadas. Este hombre más tarde fundó la
empresa TCM (Tabulating Machine Company), compañía que se fusiona en 1924 con
otras dos para pasar a ser la famosa IBM (International Business Machine).
Ahora entra en escena Alan Turing, quien
durante la Segunda Guerra Mundial trabajó con el objetivo de descifrar código
de la máquina nazi “Enigma”. En 1936, para esta tarea, utilizó la Máquina de
Turing, la cual constaba de una cinta ilimitada con bits (ceros y unos), y un
escáner iba bit a bit y saltando de un lado a otro de la secuencia. Durante esa
época, otro personaje llamado Claude Shannon, llegó a la conclusión de que la
lógica booleana podía representarse mediante la electrónica, usando circuitos
eléctricos; combinando distintos circuitos se podían realizar operaciones AND,
OR o NOT. Pero aquí tampoco termina el asunto, porque fue Vincent Atanasoff
quién, visto obligado a realizar muchos cálculos de forma rápida y basándose en
las teorías de Pascal y Babbage, creó la primera calculadora digital que
operaba en sistema binario de numeración (en ceros y unos).
Continuando, lamentablemente, con la
Segunda Guerra Mundial, el ejército norteamericano subvencionó la creación del
primer gran ordenador: una máquina que llegó a pesar 30 toneladas y ocupar unos
160 metros cuadrados. Su finalidad no era otra que calcular la trayectoria de proyectiles,
y funcionaba mediante válvulas de vacío y muchos cables; para programar un
programa en esta máquina se tenían que insertar cables en uno u otro lado,
presionar interruptores, y cambiar válvulas, una tarea titánica. Fue apodada
como ENIAC, y pese a toda la publicidad machista de la época, en este proyecto
intervinieron numerosas mujeres licenciadas en matemáticas y física.
En 1944 se decidió cambiar del sistema
binario al decimal (de ceros y unos a números normales y corrientes), pero la
idea no llegó a buen puerto, veamos por qué. El proyecto fue creado por Howard
Aiken, colaborando con IBM; ambos crearon una gran máquina electromecánica que
no llegó muy lejos y se vio rápidamente superada por otros diseños que usaban
el sistema de numeración binario, pues la información representada en ceros y
unos hacía del dispositivo algo mucho más rentable y productivo.
Dos años más tarde, John Von Neumann
propone el EDVAC, versión mejorada del ENIAC, proponiendo el sistema de
numeración binario (que simplificaba los circuitos eléctricos, junto con las
ventajas comentadas arriba), y juntar las instrucciones básicas e importantes
en un mismo sitio, dando lugar a la CPU. La idea era almacenar datos e instrucciones
(los programas, vamos) en memoria, mientras la CPU iba leyendo estos contenidos
e iba ejecutando operaciones en consecuencia.
En 1953 IBM diseña el IBM 701, destinada
a la investigación científica. Al año siguiente sacó a la luz la que sería
hermana del 701, la IBM 705 para aplicaciones comerciales, empleando por
primera vez memorias con núcleos de ferrita y manteniéndose como la cabeza
mundial del mundo de la informática.
Pero claro, las válvulas de vacío y esos
cables enormes tendrían, algún día, que desaparecer, y así fue cuando entraron
en escena los transistores en 1958. Estos aparatos consumían menos corriente y
producían menos calor, siendo más rentables, pues además, ayudaron a reducir el
tamaño de los ordenadores. Por esta época aparecieron también los primeros
lenguajes de programación, como el FORTRAN o COBOL (sustituyendo estos
lenguajes al cableado o las tarjetas perforadas).
Pocos años más tarde, 1964/1965,
comenzaron a aparecer los graciososos chips cucarachas, en los cuales se
alojaban numerosos circuitos electrónicos para realizar operaciones y conducir
la electricidad. La aparición de los microchips conllevó a lo mismo que los
transistores: reducir el tamaño de las maquinas.
Al mismo tiempo, apareció el concepto de
multitarea, es decir, la ejecución de diversos programas al mismo tiempo,
porque hay que pensar que las primeras máquinas ya comentadas solo podían
ejecutar un programa a la vez. Imaginad que sin este concepto, para cambiar de
programa (del Skype al navegador) tuviésemos que recablear y cambiar todos los
componentes de la máquina. Claro, estos conceptos fueron surgiendo a medida que
había mayores necesidades, las máquinas evolucionaban pero los programas eran
lentos y tediosos (¡no existía siquiera interfaz gráfica!).
Y claro, muchas empresas tampoco se
querían quedar atrás, los Laboratorios Bell, por ejemplo, diseñaron el sistema
operativo Multics, que a pesar de no ser un éxito rotundo, dio muchas ideas
nuevas. En 1969 se desarrolló el sistema UNIX por K. Thompson y D. Ritchie,
basados en Multics e implementando el lenguaje de programación C, basado en el
lenguaje B.
Con todos estos avances en unas pocas
décadas, ya en 1976 se usaban pequeños discos duros (de pocos megas de
memoria), memorias semiconductoras y ordenadores personales más rápidos y
baratos, como pudo ser el caso del Altair 8800, que a pesar de no tener
monitor, funcionada mediante lucecitas y botones. Steve Jobs por esta época, en
un garaje, creó junto a su socio Steve Wozniak el Apple I, primer ordenador con
monitor y teclado. En 1977 apareció el Apple II con microprocesador MOS.
En 1981 IBM entra en este mundillo y
crean los IBM PC, con procesador Intel 8088 de 8 bits y sistema operativo
PC-DOS de Microsoft. Tuvieron un éxito enorme, pues comenzaron a salir en el
mercado muchos clónicos de estos ordenadores, y los cuales han marcado el
factor de forma de los equipos actuales, como la arquitectura de procesador x86
(32 bits) o el sistema operativo MSDOS, que pasó más adelante a ser Windows NT,
XP, 7, 8... Se diseñaron además ordenadores portátiles que… ¿pesaban más de 10
kilos? Sí, y un ejemplo es el Osborne 1.
Bill Gates terminó comercializando el
sistema MSDOS, que era en modo texto o comando, y se hizo el hombre más rico
del mundo (creo que ni él se lo creyó). Y el primer ordenador con ratón
apareció en 1984, denominado Apple Macintosh (MAC), con procesador Motorola
68000, el cual cambió en 1994 al PowerPC, y finalmente en 2006 se pasan a
procesadores Intel.
Y durante la recta final del siglo, se
hicieron más frecuentes las videoconsolas o los sistemas operativos con
interfaces gráficas, incorporando ya periféricos como el ratón, discos duros,
teclados, monitores… Casos así son el Windows 1.0, Windows 2.0 (aparecen Excel
y Word), Windows 3.0 en 1990 (convirtiendo a IBM en el principal competidor de
Apple), Windows 95, 98 y NT. A partir de aquí, los sistemas operativos como
Windows 2000, XP, Vista, 7 u 8/8.1 se basaron exclusivamente en el NT, que a su
vez estaba basado en el sistema OS/2, el cual pretendió ser el sucesor del DOS.
Muchos ordenadores de los años 80/90
pueden ser el Commodore 64, Dragon MSX, Atari 800 XL, Sony MSX, Sinclair ZX
Spectrum, NCR y Commodore Amiga. Pero claro, todos estos dispositivos y
sistemas eran caros, y no todo el mundo podía acceder a ellos, por estas nobles
y sencillas razones, el hombre llamado Richard Stallman propone crear un
sistema UNIX libre, uniéndose con Linus Torvalds, un mero estudiante que había
diseñado un kernel independiente del sistema operativo MINIX (basado este en
UNIX), y Richard decidió incorporar este núcleo a su proyecto GNU (GNU’s Not
Unix), y surgiendo así el sistema operativo Linux, junto con la maravillosa
licencia de Software Libre.
Espero que no se os haya hecho pesada la
lectura y hayáis disfrutado un poquito descubriendo cosas, un saludo ^^
No hay comentarios:
Publicar un comentario