El 15 de noviembre de 1971 nacía el primer cerebro electrónico de la
historia; se lo llamó 4004, un nombre aburrido para el pionero de una
revolución que seguimos sin comprender.
Ariel Torres, para La Nación
El martes se cumplirán 45 años de un evento histórico
que, en su momento y en todos los aniversarios desde entonces, ha
pasado mayormente inadvertido. Me dirán que es raro. Si fue tan
importante, ¿cómo pasó inadvertido?
Bueno, esa es, precisamente,
la historia de la digitalización, y por eso cuesta tanto que su
verdadera naturaleza cale en las clases dirigentes. Los engranajes de la
civilización se han vuelto invisibles y se fabrican en instalaciones
futuristas, casi secretas, mayormente robotizadas y donde unos pocos
empleados visten trajes que los aíslan por completo del ambiente; el
hombre no puede tomar contacto, ni siquiera en esas instancias, con el
mundo casi alienígena de la miniaturización.
La
máscara usada para imprimir el primer cerebro electrónico de la
historia fue creada a mano; las mujeres en la foto, cuyos nombres no
trascendieron, eran conocidas como "Cortadoras de Rubylith", por la
marca de la cinta de enmascarado. Foto: Intel Corporation
Estos
nuevos engranajes ya no están construidos de hierro, ni siquiera de
alguna cerámica exótica o de nanotubos de carbono. Están hechos de
silicio y se los conoce popularmente como cerebros electrónicos; puertas
adentro los llaman microprocesadores o Unidades Centrales de
Procesamiento (CPU, por sus siglas en inglés). El 15 de noviembre de
1971 Intel presentaba el primer microprocesador completo en una sola
pieza de silicio (en un solo chip), llamado 4004. La compañía era muy
joven entonces. Tanto, que todo esto de los cerebros electrónicos era
más bien un proyecto lateral en el que la plana mayor no creía. Su
negocio era fabricar circuitos de memoria. No abundaré en los meandros
que llevaron la creación del primer microprocesador. Prefiero abordar la
historia por otro lado. Por el lado invisible.
Un pelín (literalmente)
Como
todos los CPU que le seguirían, el 4004 cabía en la palma de la mano.
Parece un detalle trivial. No lo es. El 4004 tenía 2300 transistores en
una superficie de 12 milímetros cuadrados. Dos mil trescientos de
cualquier cosa es una enormidad para un pedacito de silicio de 3 x 4
milímetros; el logro había sido extraordinario, cada pista de aquél
primer CPU era diez veces más delgada que un pelo humano.
Cierto. Pero un Core i7 de 2014 cuenta con 2600 millones de transistores.
O
sea que, redondeando, el número de componentes activos creció 1 millón
de veces desde 1971. Sin embargo, la placa de silicio de ese Core i7
mide 355 milímetros cuadrados. Es decir que todavía cabe en la palma de
la mano.
Y más: el A10 Fusion, uno de los nuevos microprocesadores
de Apple, tiene 3300 millones de transistores (1,4 millones de veces
más que el 4004). Es el cerebro electrónico del iPhone 7, un teléfono
que pesa 138 gramos. En 1981, la primera PC de IBM, que usaba uno de los
descendientes del 4004 (el 8088), pesaba 23 kilos (gabinete con 1 diskettera, monitor blanco y negro y teclado). Eso es 166 veces más que el iPhone. Bueno, caramba, sólo el teclado pesaba 20 veces más que un smartphone promedio.
Beam me up, Scotty
Y
sí, en este punto me encantaría comparar cerebros electrónicos con
autos. O con aviones. Ya lo he hecho, porque sirve para mostrar la
incomprensible evolución de la industria del silicio. Pero tales
comparaciones son engañosas. Es verdad, un chip de memoria hoy ocupa
básicamente el mismo tamaño que hace 40 años, pero tiene 15.600 veces
más capacidad. Si los autos hubieran evolucionado de la misma forma, tu
sedan familia podría transportar unas 60.000 personas.
Este
equívoco, aunque ilustrativo, es síntoma de que hubo entre el engranaje
de hierro y los bits del silicio un quiebre, una fractura insalvable. No
se trata de evolución. Saltamos a otra dimensión, una en la que los
factores que nos resultan familiares -esos que podemos tocar- y los
valores que entendemos de forma intuitiva perdieron todo sentido.
Otro
ejemplo dislocado. El primer CPU tenía un reloj interno (el que marca
el paso de su funcionamiento) a 740.000 Hertz. O sea, su corazoncito
electrónico latía 740.000 veces por segundo. Un chip de hoy anda a (por
ejemplo) 3000 millones de Hertz. Traduzcamos. Un auto de 1971 que podía
marchar a 100 kilómetros por hora hoy no sólo sería capaz de transportar
60.000 pasajeros, sino que viajaría a 400.000 kilómetros por hora.
Podrías ir de Buenos Aires a Mar del Plata en 4 segundos. Un poquito
menos, en realidad.
La pieza de silicio dentro del 4004 medía 3 x 4 milímetros. Foto: Intel
Insisto,
para dar una perspectiva de los avances de esta industria, está OK.
Pero, ¿qué es lo que falla en estas comparaciones? Que los coches nunca
podría haber avanzado a esa tasa. Es algo que carece de sentido, no
porque la industria de los coches sea atrasada o demasiado conservadora,
sino porque meter 60.000 personas en un coche es ridículo. Primero
porque llevaría horas hacerlos ingresar. Segundo porque se requeriría un
vehículo del tamaño de un estadio de fútbol. Además, viajar a Mar del
Plata en 4 segundos supone acelerar y detener el vehículo (del tamaño de
un estadio de fútbol) con niveles de energía que destrozarían a los
pasajeros. Mejor inventemos la teletransportación, y ya. Claro que para
esto se necesitaría alguna forma de computación.
Otro mundo
La
llegada de la microelectrónica nos dejó, intelectualmente, fuera de
juego. En estas nuevas maquinarias los componentes activos son más
pequeños que el virus del resfrío común. Sus parámetros no se miden en
kilómetros o revoluciones por minuto, sino en miles de millones de
Hertz. Sus cantidades trepan a billones de caracteres. Un billón de
caracteres equivale a unos 2 millones de libros de 300 páginas. Eso
sigue sin decirnos nada. OK, pongamos los 2 millones de libros en una
pila. Tendrá casi 9 veces la altura del Aconcagua, y toda esa
información hoy puede meterse en una cajita que cabe en el bolsillo.
Sigue sin significar nada. Para colmo, la función de los
microprocesadores no emula el trabajo de nuestros músculos, ni siquiera
el de nuestros sentidos, sino el de nuestras mentes. ¿Qué hace un CPU,
en última instancia? Cálculo aritmético. Eso, para una civilización que
durante 200.000 años creó herramientas tontas, es fuerte. Desorienta al
más preparado.
Las máquinas comenzaron a sumar y restar a mayor
velocidad que los humanos antes del 4004, pero con este nacimiento se
inició una era en la que los cerebros electrónicos nos dejarían atrás
para siempre. Uno necesitaría 63.000 años para hacer, a mano, la
cantidad de cálculo que completa una PlayStation 4 en tan sólo un
segundo. Es decir que una computadora promedio hace en un día una
cantidad de cálculo tal que una persona necesitaría, para igualar sus
resultados, trabajar día y noche durante más tiempo que el que ha pasado
desde el nacimiento del sistema solar. Eso con el hacha de pedernal, el
martillo, la máquina de vapor o los motores jet no pasaba.
Acumular
semejante capacidad de cómputo en dispositivos cada vez más pequeños
conduce a resultados perturbadores. Por ejemplo, un coche puede ser
autónomo porque el software de inteligencia artificial que lo conduce se
ejecuta en un CPU que cabe en la palma de la mano. Es decir que ya no
es el auto el que atrasa. Es el conductor. Somos nosotros.
El
martes se cumplirán 45 años desde que el primero de estos cerebros
electrónicos estuvo comercialmente disponible. Uno de sus descendientes,
el 8080, de 1974, encendió la hoguera de la informática personal
gracias a la Altair 8800,
de 1975; su primer lenguaje de programación fue creado por Microsoft,
que había sido fundada ese mismo año. El resto es historia reciente. Y
porque es historia reciente me preocupa que sigamos hablando como si el
mundo fuera movido por engranajes y poleas. No es así. Hace 45 años que
dejó de ser así. Y nunca más volverá a ser así.
Mail: enviotp@gmail.com En AS.: JVG CA Taller TIC (su nombre y apellido)
En un mundo donde los cambios se suceden vertiginosamente, incluso los tecnológicos, es menester asimilar las nuevas tecnologías para su aplicación inmediata y a futuro.